Skip to content

IA éthique, IA politique

Le règlement européen sur l'Intelligence artificielle (IA Act) vise à protéger la société des risques associés aux usages des systèmes d'intelligence artificielle. Il classe les cas d'usages en fonction des niveaux de risques. Par exemple, il y a des usages inacceptables comme la notation sociale, et des usages à risque plus faible comme l'emploi de systèmes d'IA dans les interfaces entre un service et ses usagers. Il y a quatre niveaux de risques ainsi présentés : inacceptable, élevé, faible, minime.

En matière d'éthique, la plupart des travaux consistent dès lors à outiller cette gestion des risques définis juridiquement. Des thèmes transversaux aux problématiques liées à l'IA, et que l'on retrouve dans bien d'autres domaines de l'économie numérique, incluent le respect de la vie privée, la transparence, la sécurité, le contrôle des données, etc. Pour autant, l'IA Act est intervenu à un moment clé où les dérives étaient constatées dans bien des secteurs (on pense notamment à la surveillance électronique), si bien que les réflexions éthiques pourraient se trouver prisonnières d'une approche selon les risques associés aux usages de l'IA, tandis que d'autres questions se posent en amont, dans la construction même des modèles d'IA et l'innovation technologique, et qu'on passe souvent sous silence.

Par exemple, pour construire un modèle de fondation, une quantité gigantesque de données est nécessaire. Bien des modèles disponibles sur le marché ont été construits tant sur des données personnelles que sur des données soumises au droit d'auteur sans en demander la permission aux intéressés, qu'il s'agisse d'œuvres d'art, de travaux écrits ou de code informatique. Et même si les données d'entraînement sont juridiquement fiables, est-il pour autant pertinent d'entraîner les IA sur n'importe quel type de données ?

D'autres points, en dehors des risques associés aux usages, peuvent retenir l'attention. Sur un marché où la course aux monopoles prévaut, avoir le modèle d'IA générative le plus puissant est un gage de réussite car il multiplie les cas d'usages possibles. C'est l'une des raisons pour lesquelles les modèles sont souvent proposés en open source, car la diffusion du modèle va permettre son enrichissement uniquement par des acteurs qui en ont les moyens technologiques et financiers (à la différence d'un simple logiciel libre auquel tout le monde peut potentiellement contribuer), tandis que les services payants seront, eux, relatifs à un ensemble de savoir-faire comme la configuration et l'administration du modèle. Ainsi, construire un mythe de la transparence en publiant des modèles open source, ne garantit aucunement que la logique de service payant ne sacrifiera pas cette transparence à la pression marketing qui, par exemple, enrichira les réponses données par les modèles selon le forfait choisi. Le système d'IA du moteur de recherche Google est certes performant, mais le service propose des résultats classés selon leur affiliation, ce qui nuit gravement à la qualité des résultats de recherche.

Un modèle d'IA éthique n'est donc pas seulement transparent, il faut encore que les services associés le soient eux aussi, et là il ne s'agit pas seulement de cas d'usage, mais de la capacité des utilisateurs à être en mesure de maîtriser, ou au moins approuver, les choix dans l'entraînement comme dans les usages. C'est pourquoi des alternatives plus libres sont à privilégier, même si elles ne bénéficient pas de la puissance médiatique des grands acteurs et même si les modèles doivent encore faire leurs preuves, quitte à envisager leur enrichissement collectif.

Un autre besoin pour rendre compétitifs les modèles d'IA est l'innovation relative aux GPU. Cette innovation a une tendance aujourd'hui à la concentration. C'est ainsi que Nvidia a réussi en peu de temps à produire des puces hautement performantes et à s'imposer sur ce marché. Outre la concentration, qui pose un problème en termes de diversité technologique, la multiplication des cas d'usage va correspondre à une multiplication des besoins en GPU. Cela ira des plus gros GPU utilisés par des entreprises pour l'entraînement d'IA, à des plus petits à intégrer sur les ordinateurs personnels parce que des acteurs comme Microsoft tendent à imposer les usages de l'IA en les intégrant à leur système d'exploitation. Et ce changement aura forcément des conséquences sur le monde du logiciel libre : est-ce qu'un LibreOffice sans outil d'aide à la saisie sera encore adopté par les utilisateurs ? Combien renonceront et avec quelles conséquences sur les conditions d'adoption des logiciels libres ?

Il y a enfin la question des coûts énergétiques relatifs à ces innovations et à la puissance de calcul nécessaire à l'élaboration des modèles d'IA. Même si la tendance devrait se concentrer sur des cas d'usages plus spécifiques, nécessitant des modèles plus petits (et pour avoir des petits modèles performants, il faut autant sinon plus de puissance de calcul). Des acteurs comme Sam Altman nous promettent un avenir où l'IA sera incontournable, comme le résultat d'une évolution implacable et qui nécessitera toujours plus de ressources. Or, la gabegie énergétique que cela suppose (jusqu'à la conversion des géants du numérique en producteurs d'électricité nucléaire) est rigoureusement incompatible avec les ressources limitées de notre planète et, à tout le moins, incompatible avec l'urgence climatique à laquelle nous faisons face depuis de nombreuses années déjà. En prétendant cette évolution incontournable, ce discours nous jette dans la tragédie climatique à venir en désarmant les arguments en faveur d'une vision plus modeste des usages numériques.

C'est même pire que cela. Eric Schmidt, ex-patron de Google, en vient à soutenir que les objectifs en faveur du climat étant inatteignables, autant confier les tâches à des systèmes d'IA, soi-disant plus aptes à voir les problèmes… quitte à accentuer encore plus la demande de ressources énergétiques et donc contribuer encore au réchauffement climatique. Ainsi, les pires libertariens des entreprises numériques en viennent à soutenir des thèses climato-bizarres, et souvent climato-sceptiques, tant que cela leur permet de maintenir davantage leur offensive technologique.

Mais là on dépasse le cadre de l'éthique, on entre dans la politique… :)