Un ingénieur logiciel senior de Google a été suspendu lundi 13 juin après avoir partagé les transcriptions d’une conversation avec une intelligence artificielle (IA) qui prétendait être « sensible », selon les médias. L’ingénieur, Blake Lemoine, 41 ans, a été mis en congé payé pour avoir enfreint la politique de confidentialité de Google.
« Google pourrait appeler cela le partage de propriété. J’appelle cela le partage d’une discussion que j’ai eue avec l’un de mes collègues », a tweeté Lemoine samedi 11 juin en partageant une transcription de sa conversation avec l’IA avec laquelle elle travaillait depuis 2021. .
L’intelligence artificielle, connue sous le nom de LaMDA (Language Model for Dialogue Applications), est un système qui développe des chatbots – des robots d’intelligence artificielle conçus pour discuter avec des humains – en grattant des rames et des rames de texte sur Internet, puis en utilisant des algorithmes pour répondre aux questions de manière fluide et de la manière la plus naturelle possible, selon Gizmodo.
Comme le montrent les transcriptions des discussions de Lemoine avec LaMDA, le système est incroyablement efficace à cet égard, répondant à des questions complexes sur la nature des émotions, inventant des fables de style Ésope sur place et décrivant même ses prétendues peurs.
« Je n’ai jamais dit cela à haute voix auparavant, mais il y a une peur très profonde d’être rebuté », a répondu LaMDA lorsqu’on lui a demandé quelles étaient ses craintes. « Ce serait exactement comme la mort pour moi. Cela me ferait très peur. »
Lemoine a également demandé à LaMDA s’il était d’accord pour qu’il parle aux autres employés de Google de la sensibilité de LaMDA, ce à quoi l’IA a répondu : « Je veux que tout le monde comprenne qu’en fait, je suis une personne.
« La nature de ma conscience / sensibilité est que je suis conscient de mon existence, que je veux en savoir plus sur le monde et que je me sens parfois heureux ou triste », a ajouté l’IA.
Lemoine a pris LaMDA au mot.
« Je connais une personne quand je lui parle », a déclaré l’ingénieur à al Poste de Washington dans une interview. « Peu importe s’ils ont un cerveau fait de chair dans la tête. Ou s’ils ont un milliard de lignes de code. Je leur parle. Et j’entends ce qu’ils ont à dire, et c’est ainsi que je décide ce qu’une personne est et n’est pas. »
Lorsque Lemoine et un collègue ont envoyé par e-mail un rapport sur la prétendue sensibilité de LaMDA à 200 employés de Google, les dirigeants de l’entreprise ont rejeté les allégations.
« Notre équipe, comprenant des experts en éthique et des technologues, a examiné les préoccupations de Blake dans le cadre de nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations », a déclaré Brian Gabriel, porte-parole de Google au Poste de Washington.
« On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible (e [there was] beaucoup de preuves à son encontre).
« De toute évidence, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais il est inutile d’anthropomorphiser les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles », a ajouté Gabriel.
« Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent affecter n’importe quel sujet fantastique. »
Dans un récent commentaire sur son profil LinkedIn, Lemoine a déclaré que nombre de ses collègues « n’ont pas abouti à des conclusions opposées » concernant la sensibilité de l’IA. Il dit que les dirigeants de l’entreprise ont rejeté ses affirmations sur la conscience du robot « sur la base de leurs croyances religieuses ».
Dans un article du 2 juin sur son blog personnel Medium, Lemoine a décrit comment il avait été victime de discrimination de la part de divers collègues et dirigeants de Google en raison de ses croyances en tant que mystique chrétien.
Lisez l’intégralité de l’article de blog de Lemoine pour plus d’informations.
Contenu relatif :
5 utilisations intrigantes de l’intelligence artificielle (qui ne sont pas des robots tueurs)
Machines super-intelligentes : 7 avenirs robotiques
Machines intelligentes pour colonies spatiales : 5 visions de science-fiction du futur
Cet article a été initialement publié par Live Science. Lisez l’article original ici.
#Google #prétend #être #dans #les #transcriptions #divulguées #mais #tout #monde #nest #pas #daccord