Selon un récit perspicace du Washington Post samedi, un ingénieur de Google a déclaré qu’après des centaines d’interactions avec un système d’intelligence artificielle à la pointe de la technologie et sans précédent appelé LaMDA, il pensait que le programme avait atteint un niveau de conscience.
Dans des entretiens et des déclarations publiques, de nombreux membres de la communauté de l’IA ont rejeté les affirmations de l’ingénieur, tandis que certains ont souligné que son récit met en évidence comment la technologie peut amener les gens à leur attribuer des attributs humains. Mais la conviction que l’IA de Google peut être sensible met en évidence à la fois nos craintes et nos attentes quant à ce que cette technologie peut faire.
LaMDA, qui signifie « Language Model for Dialog Applications », est l’un des nombreux systèmes d’intelligence artificielle à grande échelle qui a été formé sur de gros morceaux de texte provenant d’Internet et peut répondre à des demandes écrites. Ils ont pour tâche, essentiellement, de trouver des modèles et de prédire quel mot ou quels mots devraient venir ensuite. De tels systèmes sont devenus de mieux en mieux capables de répondre aux questions et d’écrire d’une manière qui peut sembler humainement convaincante – et Google lui-même a présenté LaMDA en mai dernier dans un article de blog comme celui qui peut « s’engager de manière fluide sur un nombre apparemment infini d’arguments ». les résultats peuvent également être extravagants, étranges, dérangeants et sujets à la divagation.
L’ingénieur, Blake Lemoine, aurait déclaré au Washington Post qu’il avait partagé avec Google des preuves que LaMDA était sensible, mais la société n’était pas d’accord. Dans un communiqué, Google a déclaré lundi que son équipe, qui comprend des experts en éthique et des technologues, « a examiné les préoccupations de Blake au regard de nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations ».
Le 6 juin, Lemoine a posté sur Medium que Google l’avait mis en congé administratif payé « dans le cadre d’une enquête sur les problèmes de déontologie de l’IA que je soulevais au sein de l’entreprise » et qu’il pourrait être licencié « prochainement ». (Il a mentionné l’expérience de Margaret Mitchell, qui avait été un leader de l’équipe d’IA éthique de Google jusqu’à ce que Google la licencie au début de 2021 suite à sa franchise à propos de la sortie fin 2020. alors co-leader Timnit Gebru. Gebru a été évincé après des échauffourées internes , dont un lié à un document de recherche que la direction de l’IA de l’entreprise lui a dit de retirer de toute considération pour une présentation lors d’une conférence ou de retirer son nom.)
Un porte-parole de Google a confirmé que Lemoine reste en congé administratif. Selon le Washington Post, il a été mis en congé pour avoir enfreint la politique de confidentialité de l’entreprise.
Lemoine n’était pas disponible pour commenter lundi.
L’émergence continue de programmes informatiques puissants entraînés sur d’énormes quantités de données a également soulevé des inquiétudes quant à l’éthique qui régit le développement et l’utilisation de ces technologies. Et parfois, les progrès sont vus à travers le prisme de ce qui pourrait arriver, plutôt que de ce qui est actuellement possible.
Les réponses des membres de la communauté IA à l’expérience Lemoine ont rebondi sur les réseaux sociaux au cours du week-end et sont généralement arrivées à la même conclusion : l’IA de Google est loin d’être consciente. Abeba Birhane, chercheur principal Mozilla en IA digne de confiance,
tweeté dimanche, « nous sommes entrés dans une nouvelle ère de » ce réseau de neurones est conscient « et cette fois, il consommera tellement d’énergie pour le réfuter. »
Gary Marcus, fondateur et PDG de Geometric Intelligence, qui a été vendu à Uber, et auteur de livres dont « Rebooting AI: Building Artificial Intelligence We Can Trust », a appelé l’idée de LaMDA sensible
« des bêtises sur des échasses » dans un tweet. Il a rapidement écrit un article de blog soulignant que tous ces systèmes d’IA font correspondre des modèles en puisant dans d’énormes bases de données linguistiques.
Dans une interview lundi avec CNN Business, Marcus a déclaré que la meilleure façon de penser à des systèmes comme LaMDA est comme une « version glorifiée » d’un logiciel de saisie semi-automatique que vous pouvez utiliser pour prédire le mot suivant dans un message texte. Si vous tapez « J’ai vraiment faim, donc je veux aller dans un », cela pourrait suggérer « restaurant » comme mot suivant. Mais c’est une prédiction faite à l’aide de statistiques.
« Personne ne devrait penser que la saisie semi-automatique, même sous stéroïdes, est consciente », a-t-il déclaré.
Dans une interview, Gebru, qui est le fondateur et directeur exécutif du Distributed AI Research Institute, ou DAIR, a déclaré que Lemoine est victime de nombreuses entreprises affirmant que l’IA consciente ou l’intelligence artificielle générale, une idée qui fait référence à la capacité de l’IA à effectuer des tâches humaines et interagir avec nous de manière significative, ils ne sont pas loin.
Par exemple, Ilya Sutskever, co-fondateur et scientifique en chef d’OpenAI a noté,
tweeté en février que « il se peut que les grands réseaux de neurones d’aujourd’hui soient légèrement conscients ». Et la semaine dernière, Blaise Aguera y Arcas, vice-président et collègue de Google Research, a écrit dans un article pour The Economist que lorsqu’il a commencé à utiliser LaMDA l’année dernière, « j’avais de plus en plus l’impression de parler à quelque chose d’intelligent ». (Cet article comprend désormais une note de l’éditeur soulignant que Lemoine aurait depuis « été mis en congé après avoir affirmé dans une interview au Washington Post que LaMDA, le chatbot de Google, était devenu » sensible « . « )
« Ce qui se passe, c’est qu’il y a une telle ruée pour utiliser plus de données, plus d’ordinateurs, pour dire que vous avez créé ce truc général qui est omniscient, qui répond à toutes vos questions ou quoi que ce soit, et c’est la batterie que vous avez jouée », a déclaré Gebru. « Alors, à quel point êtes-vous surpris lorsque cette personne pousse les choses à l’extrême ? »
Dans sa déclaration, Google a souligné que LaMDA a subi 11 « examens de principes d’IA distincts » ainsi que « des recherches et des tests rigoureux » liés à la qualité, à la sécurité et à la capacité de faire des déclarations factuelles. « De toute évidence, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela ne sert à rien de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles », a déclaré la société.
« Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA, et nous ne connaissons personne d’autre faisant des déclarations de grande envergure ou anthropomorphisant LaMDA, comme Blake l’a fait », a déclaré Google.