Microsoft retire un robot éducatif corrompu par les internautes

microsoft 1280
Microsoft a retiré son système d'intelligence artificielle. © Capture d'écran
  • Copié
avec AFP , modifié à
Le système d'intelligence artificielle Tay, censé apprendre de ses échanges avec les humains, avait fini par proférer des insultes racistes. 

Un robot Microsoft doté d'une intelligence artificielle et capable de l'accroître en interagissant avec les internautes a été retiré jeudi par le groupe informatique américain après avoir multiplié les diatribes haineuses ou racistes sur la base de ce que lui enseignaient des personnes mal intentionnées.

Tay "maltraitée" par des utilisateurs. Le robot Tay avait été conçu avec l'apparence d'une jeune adolescente naïve capable d'apprendre de ses interactions avec les internautes. Le projet à but éducatif a tourné court lorsque des internautes ont décidé de lui apprendre surtout la violence verbale. "Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu'elle réponde de manière inappropriée", a expliqué Microsoft dans un communiqué.

Commentaires pro-nazis. Alors que la machine avait pour but d'étudier les capacités d'apprentissage et devenait plus intelligente au fur et à mesure de ses interactions en ligne, elle s'est mise à tweeter des commentaires pro-nazis, sexistes ou racistes. Elle a par ailleurs posté des commentaires en soutien au candidat républicain à la Maison-Blanche Donald Trump.

Améliorations. Les messages injurieux ont été effacés, mais beaucoup circulent encore sous la forme de captures d'écrans. Microsoft, pour sa part, travaille désormais à améliorer le logiciel de Tay. Outre Twitter, le robot avait été conçu pour interagir sur diverses plateformes de messagerie et ciblait tout particulièrement les "millenials" nés entre 1981 et 1996.