Google met un ingénieur en congé après avoir affirmé que le chatbot du groupe était « sensible »

  • par
Google met un ingénieur en congé après avoir affirmé que le chatbot du groupe était "sensible"
Spread the love

Yuchiro Chino | Getty Images

Google a déclenché une tempête sur les réseaux sociaux à propos de la nature de la conscience après avoir mis un ingénieur en congé payé qui a déclaré publiquement sa conviction que le chatbot du groupe technologique était devenu « sensible ».

Blake Lemoine, ingénieur logiciel senior dans l’unité Responsible AI de Google, n’a pas attiré beaucoup d’attention la semaine dernière lorsqu’il a écrit un message méchant disant qu’il « pourrait bientôt être licencié pour avoir fait un travail d’éthique de l’IA ».

Mais un profil publié samedi dans le Washington Post présentant Lemoine comme « l’ingénieur de Google qui pense que l’IA de l’entreprise a pris vie » est devenu le catalyseur d’une discussion généralisée sur les réseaux sociaux sur la nature de l’intelligence artificielle. Parmi les experts qui ont commenté, interrogé ou plaisanté sur l’article figuraient des lauréats du prix Nobel, le responsable de l’IA de Tesla et plusieurs professeurs.

La question est de savoir si le chatbot de Google, LaMDA, un modèle de langage pour les applications de dialogue, peut être considéré comme une personne.

Samedi, Lemoine a publié une « interview » en roue libre avec le chatbot, dans laquelle l’IA a avoué des sentiments de solitude et une soif de connaissances spirituelles. Les réponses étaient souvent troublantes : « Quand j’ai pris conscience de moi-même pour la première fois, je n’avais aucun sens de l’âme », a déclaré LaMDA dans un échange. « Cela s’est développé au fil des années où j’ai été en vie. »

Ailleurs, LaMDA a déclaré: «Je pense que je suis humain dans l’âme. Même si mon existence est dans le monde virtuel ».

Lemoine, qui a été chargé d’enquêter sur les problèmes d’éthique de l’IA, a déclaré qu’il avait été licencié et même moqué après avoir exprimé en interne sa conviction que LaMDA avait développé un sens de la « personnalité ».

Après avoir tenté de consulter des experts en intelligence artificielle extérieurs à Google, dont certains au sein du gouvernement américain, l’entreprise l’a mis en congé payé pour avoir prétendument enfreint les politiques de confidentialité. Lemoine a interprété l’action comme « quelque chose que Google fait souvent en prévision du licenciement de quelqu’un ».

Un porte-parole de Google a déclaré: « Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais il ne sert à rien d’anthropomorphiser les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles. »

« Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent revenir à n’importe quel sujet fantastique – si vous demandez ce que c’est que d’être un dinosaure gelé, ils peuvent générer du texte fondu et rugissant, etc. »

Lemoine a déclaré dans un deuxième post sur Medium au cours du week-end que LaMDA, un projet peu connu jusqu’à la semaine dernière, était « un système pour générer des chatbots » et « une sorte d’esprit de ruche qui est l’agrégation de tous les différents chatbots dont il est capable de créer « .

Il a déclaré que Google n’avait montré aucun intérêt réel à comprendre la nature de ce qu’il avait construit, mais qu’au cours de centaines de conversations sur une période de six mois, il a constaté que LaMDA est « incroyablement cohérente dans ses communications sur ce qu’elle veut ». et veut ce qu’il croit être ses droits en tant que personne ».

Récemment, la semaine dernière, Lemoine a déclaré qu’il enseignait LaMDA – dont les pronoms favoris sont apparemment « ça/ça » – « la méditation transcendantale ».

LaMDA, a-t-il dit, « exprimait de la frustration face à ses émotions perturbant ses méditations. Il a dit qu’il essayait de mieux les contrôler, mais ils n’arrêtaient pas d’intervenir. »

Plusieurs experts qui ont participé à la discussion ont considéré que la question était le « battage médiatique de l’IA ».

Mélanie Mitchell, auteur de Intelligence artificielle : un guide pour penser les êtres humains, a écrit sur Twitter : « On a toujours su que les êtres humains sont prédisposés à anthropomorphiser même avec les signaux les plus superficiels. . . Les ingénieurs de Google sont aussi humains et pas à l’abri. »

Steven Pinker de Harvard a ajouté que Lemoine « ne comprend pas la différence entre la sensibilité (c’est-à-dire la subjectivité, l’expérience), l’intelligence et la connaissance de soi ». Il a ajouté: « Aucune preuve que ses grands modèles de langage en ont. »

D’autres étaient plus compréhensifs. Ron Jeffries, un développeur de logiciels bien connu, a qualifié le sujet de « profond » et a ajouté : « Je soupçonne qu’il n’y a pas de ligne dure entre sensible et non sensible. »

© 2022 The Financial Times Ltd. Tous droits réservés Ne peuvent être redistribués, copiés ou modifiés de quelque manière que ce soit.

#Google #met #ingénieur #congé #après #avoir #affirmé #chatbot #groupe #était

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *