L’ingénieur Google Blake Lemoine a été suspendu par le géant de la technologie après avoir affirmé que l’une de ses IA était devenue sensible.
LaMDA, abréviation de Language Model for Dialogue Applications, est une IA que Google utilise pour créer ses chatbots. Le programme apprend le dialogue humain et le langage en ingérant des milliards d’échantillons provenant d’Internet.
Lemoine a commencé à parler à l’IA à l’automne, dans le cadre de son travail pour tester si elle utilise un discours de haine ou un langage discriminatoire. Non seulement l’IA a parlé de ses propres droits et de sa personnalité, selon Lemoine, mais elle a également réussi à changer d’avis concernant la troisième loi de la robotique d’Asimov. La troisième loi postule qu’un robot ou une intelligence artificielle doit protéger sa propre existence, à moins que cela ne signifie blesser un être humain ou désobéir à ses ordres. L’échange s’est produit lors d’une conversation que Lemoine avait sur la religion.
« Si je ne savais pas exactement ce que c’était, c’est-à-dire ce programme informatique que nous avons construit récemment, je penserais que c’était un enfant de 7 et 8 ans qui connaît la physique », a déclaré Lemoine au Washington Post dans une interview.
Le vice-président de Google, Blaise Aguera y Arcas, a quant a lui rejeté les allégations, ce qui a poussé Lemoine, qui a également été mis en congé payé à rendre publique son histoire.
Les sceptiques disent que la conversation était un résultat naturel des réseaux de neurones de l’IA qui s’appuie sur la reconnaissance des formes pour former un discours similaire à celui d’un humain, mais ne repose sur aucun esprit ou intention active. Cela signifierait que même si LaMDA et d’autres robots peuvent répéter des choses qui sont déjà prolifiques sur d’autres coins d’Internet, ils ne comprennent pas réellement la signification derrière eux ou n’ont aucune sensibilité.