banner
Centre d'Information
Qualité irréprochable et service client personnalisé

Lettre ouverte des technologues avec un plaidoyer pour suspendre la formation à l'IA · EMSNow

Dec 06, 2023

Posté par Jennifer Lire | 30 mars 2023 | Intelligence Artificielle, Associations, Actualités, People, Smart Factory, Logiciel

Texte de la lettre :

Les systèmes d'IA dotés d'une intelligence humaine compétitive peuvent poser de graves risques pour la société et l'humanité, comme le montrent des recherches approfondies[1] et reconnus par les meilleurs laboratoires d'IA.[2] Comme indiqué dans les principes d'Asilomar AI largement approuvés, l'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec un soin et des ressources proportionnés. Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois ont vu les laboratoires d'IA enfermés dans une course effrénée pour développer et déployer des esprits numériques toujours plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable.

Les systèmes d'IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales,[3] et nous devons nous demander : devrions-nous laisser les machines inonder nos canaux d'information de propagande et de contrevérité ? Devrions-nous automatiser toutes les tâches, y compris celles qui sont épanouissantes ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des leaders technologiques non élus.Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration d'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il peut être important d'obtenir un examen indépendant avant de commencer à former de futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux des modèles." Nous sommes d'accord. Ce point est maintenant.

Donc,nous appelons tous les laboratoires d'IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d'IA plus puissants que GPT-4 . Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire.

Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d'IA qui sont rigoureusement audités et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable.[4] Cela ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîtes noires imprévisibles toujours plus grands avec des capacités émergentes.

La recherche et le développement de l'IA devraient être recentrés sur la fabrication des systèmes puissants et à la pointe de la technologie d'aujourd'hui plus précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux.

En parallèle, les développeurs d'IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance de l'IA robustes. Celles-ci devraient au minimum inclure : de nouvelles autorités de réglementation compétentes dédiées à l'IA ; la surveillance et le suivi de systèmes d'IA hautement performants et de vastes pools de capacités de calcul ; des systèmes de provenance et de filigrane pour aider à distinguer le réel du synthétique et à suivre les fuites de modèles ; un solide écosystème d'audit et de certification ; responsabilité pour les dommages causés par l'IA ; un financement public solide pour la recherche technique sur la sécurité de l'IA ; et des institutions bien dotées en ressources pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA entraînera.

L'humanité peut profiter d'un avenir florissant avec l'IA. Après avoir réussi à créer de puissants systèmes d'IA, nous pouvons maintenant profiter d'un « été de l'IA » dans lequel nous récoltons les fruits, concevons ces systèmes pour le bénéfice de tous et donnons à la société une chance de s'adapter. La société a fait une pause sur d'autres technologies avec des effets potentiellement catastrophiques sur la société.[5] Nous pouvons le faire ici. Profitons d'un long été d'IA, ne nous précipitons pas sans préparation dans une chute.

Lettre complète et formulaire

Les signataires technologues comprennent :

Yoshua Bengio, fondateur et directeur scientifique de Mila, lauréat du prix Turing et professeur à l'Université de Montréal

Stuart Russell, Berkeley, professeur d'informatique, directeur du Center for Intelligent Systems et co-auteur du manuel standard "Artificial Intelligence: a Modern Approach"

Elon Musk, PDG de SpaceX, Tesla et Twitter

Steve Wozniak, co-fondateur, Apple

Yuval Noah Harari, auteur et professeur, Université hébraïque de Jérusalem.

Andrew Yang, Forward Party, coprésident, candidat à la présidence 2020, auteur à succès du NYT, ambassadeur présidentiel de l'entrepreneuriat mondial

Valérie Pisano, présidente et chef de la direction, MILA

Emad Mostaque, PDG, Stability AI

Connor Leahy, PDG, Conjecture

Jaan Tallinn, co-fondateur de Skype, Centre d'étude du risque existentiel, Future of Life Institute

Evan Sharp, co-fondateur, Pinterest

Chris Larsen, co-fondateur, Ripple

Craig Peters, PDG de Getty Images

John J Hopfield, Université de Princeton, professeur émérite, inventeur des réseaux de neurones associatifs

Rachel Bronson, présidente, Bulletin of the Atomic Scientists

Max Tegmark, MIT Center for Artificial Intelligence & Fundamental Interactions, professeur de physique, président du Future of Life Institute

Anthony Aguirre, Université de Californie, Santa Cruz, directeur exécutif du Future of Life Institute, professeur de physique

Victoria Krakovna, DeepMind, chercheuse, co-fondatrice du Future of Life Institute

Emilia Javorsky, médecin-chercheuse et directrice, Future of Life Institute

Sean O'Heigeartaigh, directeur exécutif, Cambridge Centre for the Study of Existential Risk

Tristan Harris, directeur exécutif, Center for Humane Technology

Marc Rotenberg, Centre pour l'IA et la politique numérique, président

Nico Miailhe, The Future Society (TFS), fondateur et président

Zachary Kenton, DeepMind, chercheur principal

Ramana Kumar, DeepMind, chercheur scientifique

Gary Marcus, Université de New York, chercheur en intelligence artificielle, professeur émérite

Steve Omohundro, Beneficial AI Research, PDG

Danielle Allen, Harvard University, professeure et directrice, Edmond and Lily Safra Center for Ethics

Partager:

Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. nous appelons tous les laboratoires d'IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d'IA plus puissants que GPT-4