Lettre ouverte des technologues avec un plaidoyer pour suspendre la formation à l'IA · EMSNow
Posté par Jennifer Lire | 30 mars 2023 | Intelligence Artificielle, Associations, Actualités, People, Smart Factory, Logiciel
Texte de la lettre :
Les systèmes d'IA dotés d'une intelligence humaine compétitive peuvent poser de graves risques pour la société et l'humanité, comme le montrent des recherches approfondies[1] et reconnus par les meilleurs laboratoires d'IA.[2] Comme indiqué dans les principes d'Asilomar AI largement approuvés, l'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec un soin et des ressources proportionnés. Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois ont vu les laboratoires d'IA enfermés dans une course effrénée pour développer et déployer des esprits numériques toujours plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable.
Les systèmes d'IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales,[3] et nous devons nous demander : devrions-nous laisser les machines inonder nos canaux d'information de propagande et de contrevérité ? Devrions-nous automatiser toutes les tâches, y compris celles qui sont épanouissantes ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des leaders technologiques non élus.Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration d'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il peut être important d'obtenir un examen indépendant avant de commencer à former de futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux des modèles." Nous sommes d'accord. Ce point est maintenant.
Donc,nous appelons tous les laboratoires d'IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d'IA plus puissants que GPT-4 . Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire.
Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d'IA qui sont rigoureusement audités et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable.[4] Cela ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîtes noires imprévisibles toujours plus grands avec des capacités émergentes.
La recherche et le développement de l'IA devraient être recentrés sur la fabrication des systèmes puissants et à la pointe de la technologie d'aujourd'hui plus précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux.
En parallèle, les développeurs d'IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance de l'IA robustes. Celles-ci devraient au minimum inclure : de nouvelles autorités de réglementation compétentes dédiées à l'IA ; la surveillance et le suivi de systèmes d'IA hautement performants et de vastes pools de capacités de calcul ; des systèmes de provenance et de filigrane pour aider à distinguer le réel du synthétique et à suivre les fuites de modèles ; un solide écosystème d'audit et de certification ; responsabilité pour les dommages causés par l'IA ; un financement public solide pour la recherche technique sur la sécurité de l'IA ; et des institutions bien dotées en ressources pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA entraînera.
L'humanité peut profiter d'un avenir florissant avec l'IA. Après avoir réussi à créer de puissants systèmes d'IA, nous pouvons maintenant profiter d'un « été de l'IA » dans lequel nous récoltons les fruits, concevons ces systèmes pour le bénéfice de tous et donnons à la société une chance de s'adapter. La société a fait une pause sur d'autres technologies avec des effets potentiellement catastrophiques sur la société.[5] Nous pouvons le faire ici. Profitons d'un long été d'IA, ne nous précipitons pas sans préparation dans une chute.
Lettre complète et formulaire
Les signataires technologues comprennent :
Yoshua Bengio, fondateur et directeur scientifique de Mila, lauréat du prix Turing et professeur à l'Université de Montréal
Stuart Russell, Berkeley, professeur d'informatique, directeur du Center for Intelligent Systems et co-auteur du manuel standard "Artificial Intelligence: a Modern Approach"
Elon Musk, PDG de SpaceX, Tesla et Twitter
Steve Wozniak, co-fondateur, Apple
Yuval Noah Harari, auteur et professeur, Université hébraïque de Jérusalem.
Andrew Yang, Forward Party, coprésident, candidat à la présidence 2020, auteur à succès du NYT, ambassadeur présidentiel de l'entrepreneuriat mondial
Valérie Pisano, présidente et chef de la direction, MILA
Emad Mostaque, PDG, Stability AI
Connor Leahy, PDG, Conjecture
Jaan Tallinn, co-fondateur de Skype, Centre d'étude du risque existentiel, Future of Life Institute
Evan Sharp, co-fondateur, Pinterest
Chris Larsen, co-fondateur, Ripple
Craig Peters, PDG de Getty Images
John J Hopfield, Université de Princeton, professeur émérite, inventeur des réseaux de neurones associatifs
Rachel Bronson, présidente, Bulletin of the Atomic Scientists
Max Tegmark, MIT Center for Artificial Intelligence & Fundamental Interactions, professeur de physique, président du Future of Life Institute
Anthony Aguirre, Université de Californie, Santa Cruz, directeur exécutif du Future of Life Institute, professeur de physique
Victoria Krakovna, DeepMind, chercheuse, co-fondatrice du Future of Life Institute
Emilia Javorsky, médecin-chercheuse et directrice, Future of Life Institute
Sean O'Heigeartaigh, directeur exécutif, Cambridge Centre for the Study of Existential Risk
Tristan Harris, directeur exécutif, Center for Humane Technology
Marc Rotenberg, Centre pour l'IA et la politique numérique, président
Nico Miailhe, The Future Society (TFS), fondateur et président
Zachary Kenton, DeepMind, chercheur principal
Ramana Kumar, DeepMind, chercheur scientifique
Gary Marcus, Université de New York, chercheur en intelligence artificielle, professeur émérite
Steve Omohundro, Beneficial AI Research, PDG
Danielle Allen, Harvard University, professeure et directrice, Edmond and Lily Safra Center for Ethics
Partager:
Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. nous appelons tous les laboratoires d'IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d'IA plus puissants que GPT-4