Une lettre ouverte intitulée “Interrompre les expériences géantes en matière d’IA” a été publiée, mercredi 22 mars 2023, sur le site de l’institut Future of Life ; un appel à “tous les laboratoires d’IA à interrompre immédiatement, pour au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4“. La lettre, comptabilisant alors plus de 1.800 signataires, a fait l’objet de plusieurs débats et réactions depuis sa publication, notamment après l’ajout des signatures du magnat des affaires et investisseur, Elon Musk et celle de Steve Wozniak, cofondateur d’Apple.
“L’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec le soin et les ressources nécessaires”, indique la lettre. “Malheureusement, ce niveau de planification et de gestion n’existe pas, même si les derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.”
Eliezer Yudkowsky, théoricien dirigeant les recherches du Machine Intelligence Research Institute, a publié, le mercredi 29 mars 2023 sur le site du journal en ligne américain Time.com, une réponse à cette demande publique signée par des centaines de personnes, professionnels ou non du secteur de l’innovation. Le théoricien, considéré comme l’un des fondateurs de ce domaine et œuvrant, depuis 2001, sur l’alignement de l’intelligence artificielle générale, ne figure pas parmi la liste de signataires de la lettre ; une décision que Eliezer Yudkowski explique dans son article : « Je me suis abstenu de signer parce que je pense que la lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre ». « De nombreux chercheurs spécialisés dans ces questions, dont je fais partie, estiment que le résultat le plus probable de la construction d’une IA surhumainement intelligente, dans des conditions très proches des circonstances actuelles, est la mort de tous les habitants de la Terre. », ajoute-t-il.
Un avis partagé par les auteurs de la lettre : “Les systèmes d’IA contemporains deviennent maintenant compétitifs pour les humains dans des tâches générales“, peut-on lire dans la lettre ouverte, publiée sur le site web de l’institut Future of Life, une organisation à but non lucratif financé par la fondation Musk. “Devrions-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? ”
L’incertitude de contrôle de ces nouvelles technologies sont le fondement de ces inquiétudes des professionnels du secteur en question ; Eliezer Yudkowski écrit dans son article : « Si vous ne pouvez pas être sûr de créer une IA consciente d’elle-même, c’est alarmant, non seulement en raison des implications morales de la partie “consciente d’elle-même”, mais aussi parce qu’être incertain signifie que vous n’avez aucune idée de ce que vous faites, que c’est dangereux et que vous devriez arrêter. »
D’autres chercheurs et ingénieurs ont également pris la parole suite à la polémique de la lettre ouverte dans un effort d’expliquer et plaider leur cause. Gary Marcus, signataire de la lettre ouverte et auteur du livre Rebooting AI, a déclaré à TIME.com : “Il y a de sérieux risques à court et à long terme et la responsabilité des entreprises en matière d’IA semble avoir perdu la mode au moment où l’humanité en a le plus besoin“, a-t-il déclaré. “S’aventurer aussi rapidement sur un terrain inconnu avec autant d’enjeux ne semble pas être une bonne façon de procéder. Si les entreprises ne prennent pas ces risques suffisamment au sérieux, il est important que le reste d’entre nous s’exprime.”
Simeon Campos, CEO de la startup SaferAI, spécialisée dans la sécurité de l’IA, s’est également exprimé lors d’une interview avec TIME.com : “Nous portons ces systèmes à des niveaux de capacité sans précédent dans une course effrénée aux effets transformateurs sur la société. Nous devons ralentir le développement de ces systèmes pour permettre à la société de s’adapter et d’accélérer les architectures AGI alternatives qui sont sûres et formellement vérifiables dès leur conception.”
Des réactions alarmantes sur le futur de innovations en matière d’intelligence artificielle. Eliezer Yudkowski conclut son papier en appelant toutes les entreprises à « arrêter toutes les grandes grappes de GPU (les grandes fermes d’ordinateurs où les IA les plus puissantes sont affinées). Arrêter tous les grands cycles d’entraînement. Fixer un plafond à la puissance de calcul que chacun est autorisé à utiliser pour entraîner un système d’IA, et le réduire au cours des prochaines années pour compenser l’apparition d’algorithmes d’entraînement plus efficaces. Aucune exception pour les gouvernements et les armées […] Arrêtez tout. »
La directrice générale de l’UNESCO, Audrey Azoulay, a, elle, aussi réagit à cette lettre ouverte en appelant les Etats-membres de l’organisation onusienne à l’adoption des recommandations de l’UNESCO sur l’éthique de l’IA. “Le monde a besoin de règles éthiques pour l’intelligence artificielle : c’est le défi de notre temps. La Recommandation de l’UNESCO sur l’éthique de l’IA définit le cadre normatif approprié“, affirme-t-elle. « Nos États membres ont tous entériné cette recommandation en novembre 2021. Il est aujourd’hui urgent que tous transposent ce cadre sous la forme de stratégies et de réglementations nationales. Nous devons traduire les engagements en actes », note-t-elle.
Dans son communiqué, l’UNESCO ajoute : “la recommandation constitue le premier cadre normatif mondial pour une utilisation éthique de l’intelligence artificielle. Elle est une feuille de route pour les pays, qui décrit comment amplifier les avantages de l’IA tout en réduisant les risques que cette technologie comporte. À cette fin, le texte comporte non seulement des valeurs et des principes, mais aussi des orientations détaillées de politiques publiques dans tous les domaines concernés”.
L’agence onusienne a, rappelons-le, lancé les travaux sur l’éthique de l’IA en 2018. L’objectif était alors de lancer un dialogue global afin de garantir un développement de cette technologie respectueux des droits de l’Homme et éviter toute forme de discrimination.
Meriem Choukaïr