Elon Musk et d’autres leaders technologiques appellent à une pause dans la course à l’IA « hors de contrôle »

(CNN) Certains des plus grands noms de la technologie demandent aux laboratoires d’intelligence artificielle d’arrêter la formation des systèmes d’IA les plus puissants pendant au moins six mois, citant « des risques profonds pour la société et l’humanité ».

Elon Musk est l’un des dizaines Des leaders technologiques, des professeurs et des chercheurs ont signé la lettre Publié Grâce au Future of Life Institute, une organisation à but non lucratif Le soutien de Musc.

Cette lettre arrive deux semaines après OpenAI déclaré GPT-4, Une version encore plus puissante de la technologie derrière l’outil de chatbot viral AI, ChatGPT. Lors des premiers tests et d’une démonstration de l’entreprise, la technologie a été montrée en train de dessiner des cas, de passer des tests standardisés et de créer un site Web fonctionnel à partir d’un croquis dessiné à la main.

La lettre indiquait que la suspension s’appliquerait aux systèmes d’IA « plus puissants que GPT-4 ». Il a également déclaré que des experts indépendants devraient utiliser le moratoire proposé pour développer et mettre en œuvre conjointement un ensemble de protocoles partagés pour les outils d’IA qui sont sûrs « au-delà de tout doute raisonnable ».

« L’IA avancée peut représenter un changement profond dans l’histoire de la vie sur Terre et doit être planifiée et gérée avec les soins et les ressources appropriés », indique la lettre. a dit. « Malheureusement, ce niveau de planification et de gestion ne s’est pas produit, et alors que ces derniers mois ont vu les laboratoires d’IA enfermés dans une course incontrôlable, il n’y a toujours personne – pas même ses créateurs – pour développer et déployer de puissants esprits numériques capables de comprendre , prévoir ou contrôler de manière fiable. »

READ  Quatre groupes d'aide étrangers suspendent leur travail en Afghanistan après que les talibans ont interdit le travail des femmes

La lettre indiquait que les gouvernements devraient intervenir et créer un moratoire si un moratoire n’est pas mis en place prochainement.

La vague d’attention entourant ChatGPT à la fin de l’année dernière a renouvelé une course aux armements parmi les entreprises technologiques pour développer et utiliser des outils d’IA similaires dans leurs produits. OpenAI, Microsoft et Google mènent la tendance, mais IBM, Amazon, Baidu et Tencent travaillent également sur la technologie. Une longue liste de startups développe également des assistants d’écriture IA et des générateurs d’images.

Les experts en intelligence artificielle sont de plus en plus préoccupés par le potentiel de réponses biaisées des outils d’IA, leur capacité à diffuser des informations erronées et l’impact sur la vie privée des consommateurs. Ces outils ont soulevé des questions sur la façon dont l’IA peut améliorer les industries, tromper les étudiants et changer notre relation avec la technologie.

La lettre souligne un malaise plus large à l’intérieur et à l’extérieur de l’industrie face aux progrès rapides de l’IA. Auparavant, il y avait des agences gouvernementales en Chine, dans l’Union européenne et à Singapour introduit Les premières versions du cadre de personnalité de l’IA.

Correction : Une version antérieure de cette histoire indiquait que le fondateur de Microsoft, Bill Gates, et le PDG d’OpenAI, Sam Altman, avaient signé la lettre. Alors que les dirigeants figuraient initialement sur la liste des signataires, l’association à but non lucratif à l’origine de la lettre a ensuite supprimé leurs noms.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *