Google a suspendu un ingénieur la semaine dernière pour avoir révélé des détails confidentiels sur un chatbot alimenté par l’IA, une décision qui marque la dernière interruption du département IA de l’entreprise.
Blake Lemoine, ingénieur logiciel senior du groupe IA de Google, a été mis en congé administratif payé après avoir rendu public son inquiétude quant au fait que le chatbot, connu sous le nom de LaMDA, ou modèle de langage pour les applications de dialogue, avait atteint la sensibilité. Lemoine a révélé sa suspension dans un article du 6 juin sur Medium et a ensuite discuté de ses préoccupations concernant la possible sensibilité de LaMDA avec le Washington Post dans un article publié au cours du week-end. Lemoine a également recherché un consultant extérieur pour LaMDA lui-même, selon The Post.
Dans son article Medium, Lemoine dit qu’elle a enquêté sur des problèmes d’éthique avec des personnes extérieures à Google afin d’obtenir suffisamment de preuves pour les présenter à la haute direction. Le message de Medium était « intentionnellement vague » sur la nature de ses préoccupations, bien qu’elles aient été détaillées plus tard dans l’histoire du Post. Samedi, Lemoine a publié une série « d’interviews » qu’il a menées avec LaMDA.
Lemoine n’a pas immédiatement répondu à une demande de commentaire via LinkedIn. Dans un Publication sur TwitterLemoine a déclaré qu’elle était en lune de miel et qu’elle ne serait pas disponible pour commenter avant le 21 juin.
Dans un communiqué, Google a rejeté l’affirmation de Lemoine selon laquelle LaMDA est conscient de lui-même.
« Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent affecter n’importe quel sujet fantastique », a déclaré le porte-parole de Google, Brian Gabriel, dans un communiqué. « Si vous demandez ce que c’est que d’être un dinosaure gelé, ils peuvent générer des textes de fusion et de rugissement, etc. »
La suspension très médiatisée marque un autre point discutable au sein de l’équipe d’intelligence artificielle de Google, qui a résisté à une série de départs. Fin 2020, le principal chercheur en éthique de l’IA, Timnit Gebru, a déclaré que Google l’avait licenciée pour avoir soulevé des préoccupations concernant les biais dans les systèmes d’IA. Environ 2 700 Googleurs ont signé un lettre ouverte en soutien à Gebru, qui selon Google a démissionné de son poste. Deux mois plus tard, Margaret Mitchell, qui co-dirigeait l’équipe d’IA éthique avec Gebru, était licencié.
Le chercheur Alex Hanna et l’ingénieur logiciel Dylan Baker ont par la suite démissionné. Plus tôt cette année, Google a licencié Satrajit Chatterjee, un chercheur en intelligence artificielle, qui a contesté un document de recherche sur l’utilisation de l’intelligence artificielle pour développer des puces informatiques.
La sensibilité à l’IA est un thème courant dans la science-fiction, mais peu de chercheurs pensent que la technologie est suffisamment avancée à ce stade pour créer un chatbot autonome.
« Ce que ces systèmes font, ni plus ni moins, ce sont des mots qui s’enchaînent, mais sans une compréhension cohérente du monde derrière eux », a déclaré le scientifique et auteur en intelligence artificielle Gary Marcus dans un article sur Substack. Marcus n’a pas rejeté l’idée que l’IA pourrait un jour englober le monde entier, mais que LaMDA ne le fait pas pour le moment.
L’économiste et professeur de Stanford, Erik Brynjolfsson, a assimilé LaMDA à un chien écoutant une voix humaine à travers un gramophone.
Les modèles de base sont incroyablement efficaces pour assembler des morceaux de texte statistiquement plausibles en réponse aux invites.
Mais dire qu’ils sont sensibles est l’équivalent moderne du chien ayant entendu une voix d’un gramophone et pensé que son propriétaire était à l’intérieur. #AU #LaMDA pic.twitter.com/s8hIKEplhF
-Erik Brynjolfsson (@erikbryn) 12 juin 2022
#Google #suspend #lingénieur #qui #sonné #lalarme #sur #lintelligence #artificielle #dune #entreprise #qui #atteint #sensibilité