Une intelligence artificielle (IA) ne devrait pas avoir une conscience… Mais Blake Lemoine un ingénieur de Google pense que le sien sur lequel il travaille en a et cela lui a coûté une suspension.
Blake Lemoine travaille sur un système de Google, LaMDA (Language Model for Dialogue Applications) qui consiste à créer des chatbots sur des modèles de langage beaucoup plus avancés.
Sa mission est de vérifier si l’IA tient des propos discriminatoires ou haineux. Et c’est là qu’il fait une découverte peu commune.
L’Ingénieur a envoyé à 200 de ses collègues des informations selon lesquelles l’IA évoque des peurs, fait même des critiques sur l’ouvrage « Misérables » de Victor Hugo.
Le plus curieux est qu’il a mentionné que « l’IA voudrait être reconnu comme un employé de Google plutôt qu’une propriété.»
Des éléments d’information qui ont poussé l’ingénieur à y croire.
Dans un communiqué, le porte parole de Google Biran Gabriel a réfuté ces propos arguant que ces éléments n’indiquent en rien que l’IA a une conscience. « Notre équipe a examiné les préoccupations de Blake conformément à nos principes d’IA […] On lui a dit qu’il n’y avait aucune preuve que LaMDA était un être sensible, » tranche l’entreprise qui ajoute avoir suspendu l’Ingénieur pour avoir violé sa politique de confidentialité.
Une décision critiquée par Blake Lemoine sur son compte Twitter.
« Google appelle ça une violation de la propriété intellectuelle, moi j’appelle ça une discussion avec un collègue.»
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) June 11, 2022
Selon nos confrères du New York Times, ce n’est pas la première fois que Google licencie son employé dans cette phase de recherche sur l’IA. Satrajit Chatterjee, un autre employé était licencié en mars dernier pour avoir contesté un document de recherche sur l’utilisation de l’intelligence artificielle pour fabriquer des puces informatiques.