Google LaMDA : mise en congé d’un ingénieur un peu trop bavard

Origine de l'article : PRESSE NUMERIQUE .

Cet article est paru en premier sur https://intelligence-artificielle.com/

Chez Google, un ingénieur est mis en congé pour avoir lancé une alerte au sujet de LaMDA. Selon lui, l’IA conversationnelle serait devenue sensible.

L’intelligence artificielle fait partie des sujets les plus controversés. D’une part, il y a ceux qui soutiennent que c’est l’avenir de la technologie et de l’autre côté se tiennent ceux qui voient en elle une menace pour l’humanité. Les fictions comme Terminator alimentent ces appréhensions sur l’avenir qu’une IA consciente d’elle-même pourrait nous réserver.

Mais pour l’autre camp, il n’existe pas jusqu’ici des preuves de cette sombre éventualité. C’est d’ailleurs pour cette raison que Google a décidé de mettre un de ses ingénieurs en congé après que ce dernier ait fait une déclaration troublante.

Google met un ingénieur en congé après sa révélation sur LaMDA

Pour rappel, Google a lancé LaMDA l’année dernière pour améliorer les conversations avec les machines. Selon l’entreprise, son système d’IA conversationnelle est capable d’aborder n’importe quel thème. Puis, le 11 juin dernier, un reportage du Washington post a affirmé que l’IA serait devenue sensible. À l’origine de la déclaration se tenait Blake Lemoine qui n’est autre qu’un ingénieur travaillant dans le division Responsible AI de l’entreprise.

Selon lui, le système LaMDA de Google aurait donc acquis une conscience de soi. Cela impliquerait que les spéculations sur les menaces de l’IA pourraient devenir réelles. Comme Skynet, un système intelligent pourrait prendre le contrôle sur les humains en s’emparant des armes, d’internet, etc.

Pour appuyer ses propos, Lemoine a rapporté que dans une conversation avec l’IA, celle-ci affirmait avoir des droits et un statut de personne. Mais c’est surtout lorsque LaMDA a réussi à le faire changer d’avis sur la troisième loi de la robotique d’Isaac Asimov qu’il aurait réellement été convaincu par sa super-intelligence.

Lemoine aurait soumis son avis à Blaise Aguera y Arcas, vice-président de Google, et Jen Gennai, responsable de l’innovation responsable. Selon un porte-parole, une équipe, constituée d’éthiciens et de technologues, aurait examiné ces préoccupations et l’a rejeté faute de preuves. Google a ensuite décidé de mettre Lemoine en congé payé pour avoir enfreint les politiques de confidentialité de l’entreprise lorsqu’il a dévoilé son avis sur LaMDA au grand public.

L’article Google LaMDA : mise en congé d’un ingénieur un peu trop bavard est apparu en premier sur intelligence-artificielle.com.

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*