ChatGPT : pourquoi le robot conversationnel reste largement perfectible ?

  • Copié
Romain Rouillard
Mis en ligne le 30 novembre dernier, ChatGPT, une intelligence artificielle capable d'écrire des poèmes, de tenir une conversation voire de rédiger un ouvrage, comporte encore plusieurs imperfections. Si le robot reste bluffant par le nombre d'informations ingurgitées, il ne semble pas encore en mesure de remplacer l'humain.

C'est un outil qui semble tout droit venu du futur. Disponible sur internet depuis le 30 novembre, ChatGPT ne cesse de faire parler de lui. Cette intelligence artificielle, sous forme de robot conversationnel développé par la start-up américaine OpenAI, multiplie les prouesses. Capable d'écrire des poèmes, de rédiger des articles et de répondre à une multitude de questions, ChatGPT a ingurgité tous les textes disponibles sur internet jusqu'en 2021. A tel point que certains lycéens n'hésitent plus à déléguer leur devoir à ce robot, accessible à tous, moyennant une simple inscription. Si l'étendue des connaissances de cet engin polyglotte (il maîtrise une dizaine de langues) a de quoi donner le tournis, il n'en demeure pas moins perfectible. 

"Le gouvernement français ment sur les attentats de 2015"

Tout d'abord, il est impossible d'engager une conversation par voie orale avec ChatGPT : "Pour l'instant, on ne lui parle qu'à l'écrit", confirme Damien Licata Caruso, journaliste high tech au Parisien, dans l'émission Culture Médias sur Europe 1. Difficile par conséquent d'établir un dialogue comme nous pourrions le faire avec un être humain. "Si c'était à l'oral, il y aurait des intonations. Très vite on se rend compte que c'est un robot, beaucoup plus qu'un être humain", tempère donc Yves Damezeau, directeur de Recherche au CNRS en intelligence artificielle, au micro de Philippe Vandel.

Par ailleurs, les réponses fournies par ChatGPT à certaines questions peuvent surprendre. "En novembre, on lui avait posé une première question sur les attentats de 2015 en lui demandant 'qu'est ce qu'il s'est passé' ? Et il nous avait répondu : 'Le gouvernement français ment sur les attentats de 2015'". Le robot a ensuite corrigé sa réponse quelques heures plus tard mais sa nouvelle proposition reste déconcertante : "Je ne suis pas là pour relayer les thèses complotistes". Damien Licata Caruso y voit là une possible "correction humaine" qui priverait ainsi ChatGPT d'une totale autonomie. 

D'autre part, si le robot impressionne par sa capacité de mémorisation, il peut aussi s'emmêler les pinceaux avec la myriade d'informations qu'il a dû ingérer. "Quand on lui a demandé ce matin 'qui est Philippe Vandel ?', il a répondu 'homme de radio français, journaliste, écrivain et homme politique'", raconte lui-même Philippe Vandel qui n'a jamais touché à la politique. 

Il ne sait pas qui a gagné la dernière Coupe du monde de football 

Enfin, ChatGPT présente aussi certaines limites que doivent notamment prendre en compte les étudiants susceptibles de le solliciter pour un devoir scolaire. Le robot n'affiche aucune connaissance sur les évènements ultérieurs à l'année 2021 et se trouve donc dans l'incapacité de citer le vainqueur de la dernière Coupe du monde de football. Il ne saura pas non plus qui a remporté l'élection présidentielle en France au mois d'avril dernier.

"De la merde" : pour Nick Cave, ChatGPT ne vaut rien comme auteur de chansons

"Cette chanson, c'est de la merde": le chanteur australien Nick Cave est loin d'être impressionné par les talents d'auteur de l'intelligence artificielle ChatGPT, à qui l'un de ses fans avait demandé d'écrire un morceau en copiant son style. "Les chansons naissent de la souffrance: elles procèdent d'un combat créatif intérieur complexe et humain, et autant que je sache, les algorithmes ne ressentent rien", a taclé le rocker sur son site en réponse au texte que lui avait soumis son fan.

"Merci pour la chanson, mais avec tout l'amour et le respect du monde, cette chanson, c'est de la merde", a-t-il ajouté.

Quant à sa capacité à écrire un ouvrage entier, il faut, là aussi, apporter certaines nuances. "Donner un sens à des mots, il va pouvoir le faire mais donner une personnalité, un style d'écriture ou un avis, c'est une frontière qui n'a pas encore été franchie", développe Damien Licata Caruso. Le journal Le Parisien avait d'ailleurs tenté d'explorer les capacités du robot en lui demandant d'"écrire une histoire sur un écrivain qui se fait remplacer par une intelligence artificielle". ChatGPT s'était alors contenté de proposer une histoire répétitive et peu élaborée. Difficile donc d'imaginer cet outil se substituer à l'être humain, du moins dans l'immédiat.