banner

Blog

Sep 20, 2023

Comment gouverner au mieux l'IA ?

25 mai 2023 | Brad Smith - Vice-président et président

Cet article est l'avant-propos écrit par Brad Smith pour le rapport de MicrosoftGouverner l'IA : un plan pour l'avenir . La première partie du rapport détaille cinq manières dont les gouvernements devraient envisager les politiques, les lois et les réglementations relatives à l'IA. La deuxième partie se concentre sur l'engagement interne de Microsoft envers l'IA éthique, montrant comment l'entreprise opérationnalise et construit une culture d'IA responsable.

"Ne demandez pas ce que les ordinateurs peuvent faire, demandez ce qu'ils devraient faire."

C'est le titre du chapitre sur l'IA et l'éthique dans un livre que j'ai co-écrit en 2019. À l'époque, nous écrivions que "c'est peut-être l'une des questions déterminantes de notre génération". Quatre ans plus tard, la question occupe le devant de la scène non seulement dans les capitales du monde, mais autour de nombreuses tables de dîner.

Lorsque les gens ont utilisé ou entendu parler de la puissance du modèle de base GPT-4 d'OpenAI, ils ont souvent été surpris, voire étonnés. Beaucoup ont été enthousiasmés ou même excités. Certains ont été inquiets ou même effrayés. Ce qui est devenu clair pour presque tout le monde est quelque chose que nous avons noté il y a quatre ans - nous sommes la première génération dans l'histoire de l'humanité à créer des machines capables de prendre des décisions qui auparavant ne pouvaient être prises que par des personnes.

Les pays du monde entier posent des questions communes. Comment pouvons-nous utiliser cette nouvelle technologie pour résoudre nos problèmes ? Comment éviter ou gérer les nouveaux problèmes que cela pourrait créer ? Comment contrôler une technologie aussi puissante ?

Ces questions appellent non seulement une conversation large et réfléchie, mais une action décisive et efficace. Ce document présente certaines de nos idées et suggestions en tant qu'entreprise.

Ces suggestions s'appuient sur les leçons que nous avons tirées du travail que nous faisons depuis plusieurs années. Le PDG de Microsoft, Satya Nadella, nous a donné une orientation claire lorsqu'il a écrit en 2016 : « Peut-être que le débat le plus productif que nous puissions avoir n'est pas celui du bien contre le mal : le débat devrait porter sur les valeurs inculquées aux personnes et aux institutions qui créent cette technologie.

Depuis lors, nous avons défini, publié et mis en œuvre des principes éthiques pour guider notre travail. Et nous avons construit des systèmes d'ingénierie et de gouvernance en constante amélioration pour mettre ces principes en pratique. Aujourd'hui, près de 350 personnes travaillent sur l'IA responsable chez Microsoft, nous aidant à mettre en œuvre les meilleures pratiques pour créer des systèmes d'IA sûrs, sécurisés et transparents conçus pour le bénéfice de la société.

De nouvelles opportunités pour améliorer la condition humaine

Les progrès de notre approche qui en ont résulté nous ont donné la capacité et la confiance nécessaires pour voir de plus en plus de moyens permettant à l'IA d'améliorer la vie des gens. Nous avons vu l'IA aider à sauver la vue des individus, à faire des progrès sur de nouveaux traitements contre le cancer, à générer de nouvelles connaissances sur les protéines et à fournir des prédictions pour protéger les gens des conditions météorologiques dangereuses. D'autres innovations permettent de repousser les cyberattaques et d'aider à protéger les droits humains fondamentaux, même dans les pays touchés par une invasion étrangère ou une guerre civile.

Les activités quotidiennes en bénéficieront également. En agissant comme un copilote dans la vie des gens, la puissance des modèles de base comme GPT-4 transforme la recherche en un outil plus puissant pour la recherche et l'amélioration de la productivité des personnes au travail. Et, pour tout parent qui a du mal à se rappeler comment aider son enfant de 13 ans à faire ses devoirs d'algèbre, l'assistance basée sur l'IA est un tuteur utile.

À bien des égards, l'IA offre peut-être encore plus de potentiel pour le bien de l'humanité que toute invention qui l'a précédée. Depuis l'invention de l'imprimerie à caractères mobiles dans les années 1400, la prospérité humaine a augmenté à un rythme accéléré. Des inventions telles que la machine à vapeur, l'électricité, l'automobile, l'avion, l'informatique et Internet ont fourni de nombreux éléments constitutifs de la civilisation moderne. Et, comme la presse à imprimer elle-même, l'IA offre un nouvel outil pour véritablement aider à faire progresser l'apprentissage et la pensée humaine.

Garde-corps pour l'avenir

Une autre conclusion est tout aussi importante : il ne suffit pas de se concentrer uniquement sur les nombreuses opportunités d'utiliser l'IA pour améliorer la vie des gens. C'est peut-être l'une des leçons les plus importantes du rôle des médias sociaux. Il y a un peu plus d'une décennie, les technologues et les commentateurs politiques s'extasient sur le rôle des médias sociaux dans la diffusion de la démocratie pendant le printemps arabe. Pourtant, cinq ans plus tard, nous avons appris que les médias sociaux, comme tant d'autres technologies avant lui, deviendraient à la fois une arme et un outil – dans ce cas, visant la démocratie elle-même.

Aujourd'hui, nous avons 10 ans de plus et sommes plus sages, et nous devons mettre cette sagesse en pratique. Nous devons réfléchir tôt et de manière lucide aux problèmes qui pourraient nous guetter. À mesure que la technologie progresse, il est tout aussi important d'assurer un contrôle approprié de l'IA que de rechercher ses avantages. Nous sommes engagés et déterminés en tant qu'entreprise à développer et déployer l'IA de manière sûre et responsable. Nous reconnaissons également, cependant, que les garde-corps nécessaires à l'IA nécessitent un sens des responsabilités largement partagé et ne doivent pas être laissés aux seules entreprises technologiques.

Lorsque Microsoft a adopté nos six principes éthiques pour l'IA en 2018, nous avons noté qu'un principe était le fondement de tout le reste : la responsabilité. C'est le besoin fondamental : s'assurer que les machines restent soumises à une surveillance efficace par les personnes, et que les personnes qui conçoivent et exploitent les machines restent responsables devant tous les autres. En bref, nous devons toujours nous assurer que l'IA reste sous contrôle humain. Cela doit être une priorité de premier ordre pour les entreprises technologiques et les gouvernements.

Cela est directement lié à un autre concept essentiel. Dans une société démocratique, l'un de nos principes fondamentaux est que personne n'est au-dessus de la loi. Aucun gouvernement n'est au-dessus des lois. Aucune entreprise n'est au-dessus des lois, et aucun produit ou technologie ne devrait être au-dessus des lois. Cela conduit à une conclusion critique : les personnes qui conçoivent et exploitent des systèmes d'IA ne peuvent être tenues responsables que si leurs décisions et leurs actions sont soumises à l'État de droit.

À bien des égards, cela est au cœur du débat politique et réglementaire en cours sur l'IA. Comment les gouvernements garantissent-ils au mieux que l'IA est soumise à l'état de droit ? En bref, quelle forme les nouvelles lois, réglementations et politiques devraient-elles prendre ?

Un schéma directeur en cinq points pour la gouvernance publique de l'IA

La première section de ce document propose un plan en cinq points pour résoudre plusieurs problèmes actuels et émergents liés à l'IA par le biais de politiques publiques, de lois et de réglementations. Nous offrons cela en reconnaissant que chaque partie de ce plan bénéficiera d'une discussion plus large et nécessitera un développement plus approfondi. Mais nous espérons que cela pourra contribuer de manière constructive aux travaux à venir.

Tout d'abord, mettre en œuvre et s'appuyer sur de nouveaux cadres de sécurité de l'IA dirigés par le gouvernement. La meilleure façon de réussir est souvent de s'appuyer sur les succès et les bonnes idées des autres. Surtout quand on veut aller vite. Dans ce cas, il existe une opportunité importante de s'appuyer sur les travaux achevés il y a à peine quatre mois par l'Institut national américain des normes et de la technologie, ou NIST. Faisant partie du Département du commerce, le NIST a achevé et lancé un nouveau cadre de gestion des risques liés à l'IA.

Nous proposons quatre suggestions concrètes pour mettre en œuvre et développer ce cadre, y compris les engagements pris par Microsoft en réponse à une récente réunion de la Maison Blanche avec les principales sociétés d'IA. Nous pensons également que l'administration et les autres gouvernements peuvent accélérer la dynamique grâce à des règles d'approvisionnement basées sur ce cadre.

Deuxièmement, exiger des freins de sécurité efficaces pour les systèmes d'IA qui contrôlent les infrastructures critiques . Dans certains milieux, des individus réfléchis se demandent de plus en plus si nous pouvons contrôler de manière satisfaisante l'IA à mesure qu'elle devient plus puissante. Des inquiétudes sont parfois posées concernant le contrôle par l'IA d'infrastructures critiques telles que le réseau électrique, le système d'approvisionnement en eau et les flux de trafic urbain.

C'est le bon moment pour discuter de cette question. Ce plan directeur propose de nouvelles exigences de sécurité qui, en fait, créeraient des freins de sécurité pour les systèmes d'IA qui contrôlent le fonctionnement des infrastructures critiques désignées. Ces systèmes à sécurité intégrée feraient partie d'une approche globale de la sécurité des systèmes qui garderait à l'esprit la surveillance humaine efficace, la résilience et la robustesse. Dans l'esprit, ils seraient similaires aux systèmes de freinage que les ingénieurs ont depuis longtemps intégrés à d'autres technologies telles que les ascenseurs, les autobus scolaires et les trains à grande vitesse, pour gérer en toute sécurité non seulement les scénarios quotidiens, mais aussi les urgences.

Dans cette approche, le gouvernement définirait la classe des systèmes d'IA à haut risque qui contrôlent les infrastructures critiques et justifient de telles mesures de sécurité dans le cadre d'une approche globale de la gestion du système. De nouvelles lois obligeraient les opérateurs de ces systèmes à intégrer dès la conception des freins de sécurité dans les systèmes d'IA à haut risque. Le gouvernement veillerait alors à ce que les opérateurs testent régulièrement les systèmes à haut risque pour s'assurer que les mesures de sécurité du système sont efficaces. Et les systèmes d'IA qui contrôlent le fonctionnement des infrastructures critiques désignées ne seraient déployés que dans des centres de données d'IA sous licence qui assureraient une deuxième couche de protection grâce à la capacité d'appliquer ces freins de sécurité, assurant ainsi un contrôle humain efficace.

Troisièmement, élaborer un vaste cadre juridique et réglementaire fondé sur l'architecture technologique de l'IA . Nous pensons qu'il faudra une architecture juridique et réglementaire pour l'IA qui reflète l'architecture technologique de l'IA elle-même. En bref, la loi devra imposer diverses responsabilités réglementaires à différents acteurs en fonction de leur rôle dans la gestion des différents aspects de la technologie de l'IA.

Pour cette raison, ce plan comprend des informations sur certains des éléments critiques qui entrent dans la construction et l'utilisation de nouveaux modèles d'IA génératifs. En utilisant cela comme contexte, il propose que différentes lois imposent des responsabilités réglementaires spécifiques aux organisations exerçant certaines responsabilités à trois couches de la pile technologique : la couche applications, la couche modèle et la couche infrastructure.

Cela devrait d'abord appliquer les protections juridiques existantes au niveau des applications à l'utilisation de l'IA. C'est la couche où la sécurité et les droits des personnes seront le plus touchés, en particulier parce que l'impact de l'IA peut varier considérablement selon les différents scénarios technologiques. Dans de nombreux domaines, nous n'avons pas besoin de nouvelles lois et réglementations. Nous devons plutôt appliquer et faire respecter les lois et réglementations existantes, en aidant les agences et les tribunaux à développer l'expertise nécessaire pour s'adapter aux nouveaux scénarios d'IA.

Il sera alors nécessaire d'élaborer de nouvelles lois et réglementations pour des modèles de base d'IA hautement performants, mieux mis en œuvre par une nouvelle agence gouvernementale. Cela aura un impact sur deux couches de la pile technologique. Le premier nécessitera de nouvelles réglementations et licences pour ces modèles eux-mêmes. Et le second impliquera des obligations pour les opérateurs d'infrastructures d'IA sur lesquelles ces modèles sont développés et déployés. Le plan directeur qui suit propose des objectifs et des approches suggérés pour chacune de ces couches.

Ce faisant, ce plan s'appuie en partie sur un principe développé au cours des dernières décennies dans le secteur bancaire pour se protéger contre le blanchiment d'argent et l'utilisation criminelle ou terroriste des services financiers. Le principe "Know Your Customer" - ou KYC - exige que les institutions financières vérifient l'identité des clients, établissent des profils de risque et surveillent les transactions pour aider à détecter les activités suspectes. Il serait logique de reprendre ce principe et d'appliquer une approche KY3C qui crée dans le contexte de l'IA certaines obligations de connaître son cloud, ses clients et son contenu.

Dans le premier cas, les développeurs de modèles d'IA puissants désignés "connaissent d'abord le cloud" sur lequel leurs modèles sont développés et déployés. De plus, comme pour les scénarios impliquant des usages sensibles, l'entreprise qui a une relation directe avec un client - qu'il s'agisse du développeur du modèle, du fournisseur d'applications ou de l'opérateur cloud sur lequel le modèle fonctionne - doit "connaître les clients" qui y accèdent.

De plus, le public devrait être habilité à "connaître le contenu" que l'IA crée grâce à l'utilisation d'une étiquette ou d'une autre marque informant les gens quand quelque chose comme une vidéo ou un fichier audio a été produit par un modèle d'IA plutôt que par un être humain. Cette obligation d'étiquetage devrait également protéger le public contre l'altération du contenu original et la création de "deep fakes". Cela nécessitera l'élaboration de nouvelles lois, et il y aura de nombreuses questions et détails importants à aborder. Mais la santé de la démocratie et l'avenir du discours civique bénéficieront de mesures réfléchies pour dissuader l'utilisation des nouvelles technologies pour tromper ou frauder le public.

Quatrièmement, promouvoir la transparence et garantir l'accès des universitaires et des organisations à but non lucratif à l'IA. Nous pensons qu'un objectif public essentiel est de faire progresser la transparence et d'élargir l'accès aux ressources d'IA. Bien qu'il existe des tensions importantes entre la transparence et le besoin de sécurité, il existe de nombreuses opportunités pour rendre les systèmes d'IA plus transparents de manière responsable. C'est pourquoi Microsoft s'engage à publier un rapport annuel sur la transparence de l'IA et à prendre d'autres mesures pour accroître la transparence de nos services d'IA.

Nous pensons également qu'il est essentiel d'élargir l'accès aux ressources d'IA pour la recherche universitaire et la communauté à but non lucratif. La recherche fondamentale, en particulier dans les universités, a été d'une importance fondamentale pour le succès économique et stratégique des États-Unis depuis les années 1940. Mais à moins que les chercheurs universitaires ne puissent accéder à beaucoup plus de ressources informatiques, il existe un risque réel que la recherche scientifique et technologique en pâtisse, y compris en ce qui concerne l'IA elle-même. Notre plan prévoit de nouvelles étapes, y compris des mesures que nous prendrons à travers Microsoft, pour répondre à ces priorités.

Cinquièmement, poursuivre de nouveaux partenariats public-privé pour utiliser l'IA comme un outil efficace pour relever les défis sociétaux inévitables qui accompagnent les nouvelles technologies. L'une des leçons de ces dernières années est ce que les sociétés démocratiques peuvent accomplir lorsqu'elles exploitent le pouvoir de la technologie et rapprochent les secteurs public et privé. C'est une leçon sur laquelle nous devons nous appuyer pour faire face à l'impact de l'IA sur la société.

Nous bénéficierons tous d'une forte dose d'optimisme lucide. L'IA est un outil extraordinaire. Mais, comme d'autres technologies, elle aussi peut devenir une arme puissante, et il y en aura dans le monde qui chercheront à l'utiliser de cette façon. Mais nous devrions nous réjouir du cyber front et de la dernière année et demie de la guerre en Ukraine. Ce que nous avons découvert, c'est que lorsque les secteurs public et privé travaillent ensemble, lorsque des alliés partageant les mêmes idées se réunissent, et lorsque nous développons la technologie et l'utilisons comme bouclier, c'est plus puissant que n'importe quelle épée sur la planète.

Un travail important est nécessaire maintenant pour utiliser l'IA pour protéger la démocratie et les droits fondamentaux, fournir un large accès aux compétences en IA qui favoriseront une croissance inclusive et utiliser la puissance de l'IA pour faire progresser les besoins de durabilité de la planète. Peut-être plus que tout, une vague de nouvelles technologies d'IA fournit une occasion de voir grand et d'agir avec audace. Dans chaque domaine, la clé du succès sera de développer des initiatives concrètes et de rassembler les gouvernements, des entreprises respectées et des ONG dynamiques pour les faire avancer. Nous proposons quelques idées initiales dans ce rapport, et nous sommes impatients d'en faire beaucoup plus dans les mois et les années à venir.

Gouverner l'IA au sein de Microsoft

En fin de compte, chaque organisation qui crée ou utilise des systèmes d'IA avancés devra développer et mettre en œuvre ses propres systèmes de gouvernance. La deuxième section de ce document décrit le système de gouvernance de l'IA au sein de Microsoft - où nous avons commencé, où nous en sommes aujourd'hui et comment nous nous dirigeons vers l'avenir.

Comme le reconnaît cette section, le développement d'un nouveau système de gouvernance pour les nouvelles technologies est un voyage en soi. Il y a dix ans, ce domaine existait à peine. Aujourd'hui, Microsoft compte près de 350 employés spécialisés dans ce domaine, et nous investissons dans notre prochain exercice fiscal pour développer davantage cette activité.

Comme décrit dans cette section, au cours des six dernières années, nous avons mis en place une structure et un système de gouvernance de l'IA plus complets au sein de Microsoft. Nous ne sommes pas partis de zéro, empruntant plutôt aux meilleures pratiques pour la protection de la cybersécurité, de la vie privée et de la sécurité numérique. Tout cela fait partie du système complet de gestion des risques d'entreprise (ERM) de la société, qui est devenu aujourd'hui un élément essentiel de la gestion des entreprises et de nombreuses autres organisations dans le monde.

En ce qui concerne l'IA, nous avons d'abord développé des principes éthiques, puis nous avons dû les traduire en politiques d'entreprise plus spécifiques. Nous sommes maintenant sur la version 2 de la norme d'entreprise qui incarne ces principes et définit des pratiques plus précises à suivre pour nos équipes d'ingénierie. Nous avons mis en œuvre la norme par le biais de systèmes de formation, d'outillage et de test qui continuent à mûrir rapidement. Ceci est soutenu par des processus de gouvernance supplémentaires qui incluent des mesures de surveillance, d'audit et de conformité.

Comme pour tout dans la vie, on apprend de l'expérience. En ce qui concerne la gouvernance de l'IA, certains de nos apprentissages les plus importants proviennent du travail détaillé requis pour examiner des cas d'utilisation spécifiques et sensibles de l'IA. En 2019, nous avons fondé un programme d'examen des utilisations sensibles pour soumettre nos cas d'utilisation de l'IA les plus sensibles et les plus nouveaux à un examen rigoureux et spécialisé qui se traduit par des conseils personnalisés. Depuis lors, nous avons réalisé environ 600 examens de cas d'utilisation sensibles. Le rythme de cette activité s'est accéléré pour suivre le rythme des progrès de l'IA, avec près de 150 examens de ce type ayant eu lieu au cours des 11 mois.

Tout cela s'appuie sur le travail que nous avons accompli et que nous continuerons d'accomplir pour faire progresser l'IA responsable grâce à la culture d'entreprise. Cela signifie embaucher de nouveaux talents diversifiés pour développer notre écosystème d'IA responsable et investir dans les talents que nous avons déjà chez Microsoft pour développer des compétences et leur donner les moyens de réfléchir largement à l'impact potentiel des systèmes d'IA sur les individus et la société. Cela signifie également que beaucoup plus que par le passé, la frontière de la technologie nécessite une approche multidisciplinaire qui combine de grands ingénieurs avec des professionnels talentueux de tous les arts libéraux.

Tout cela est proposé dans cet article dans l'esprit que nous sommes dans un voyage collectif pour forger un avenir responsable pour l'intelligence artificielle. Nous pouvons tous apprendre les uns des autres. Et peu importe à quel point nous pensons que quelque chose est bon aujourd'hui, nous devrons tous continuer à nous améliorer.

À mesure que l'évolution technologique s'accélère, le travail visant à gouverner l'IA de manière responsable doit suivre son rythme. Avec les bons engagements et investissements, nous pensons que c'est possible.

Gouverner l'IA : un plan pour l'avenir De nouvelles opportunités pour améliorer la condition humaine Garde-corps pour l'avenir Un plan en cinq points pour la gouvernance publique de l'IA Tout d'abord, mettre en œuvre et s'appuyer sur de nouveaux cadres de sécurité de l'IA dirigés par le gouvernement. Deuxièmement, exiger des freins de sécurité efficaces pour les systèmes d'IA qui contrôlent les infrastructures critiques . Troisièmement, élaborer un vaste cadre juridique et réglementaire fondé sur l'architecture technologique de l'IA . Quatrièmement, promouvoir la transparence et garantir l'accès des universitaires et des organisations à but non lucratif à l'IA. Cinquièmement, poursuivre de nouveaux partenariats public-privé pour utiliser l'IA comme un outil efficace pour relever les défis sociétaux inévitables qui accompagnent les nouvelles technologies. Gouverner l'IA au sein de Microsoft
PARTAGER