Va-t-on vers une régulation de ChatGPT en France, cette intelligence artificielle qui fait débat ?

ChatGPT
Expérimentation créée par l’entreprise Open AI, ChatGPT a déjà connu plusieurs mises à jour, se perfectionnant petit à petit. © HANNES P ALBERT / DPA / DPA PICTURE-ALLIANCE VIA AFP
  • Copié
Juline Garnier , modifié à
Présentées comme une véritable révolution technologique, les intelligences artificielles ont déjà envahi les paysages économique et culturel dans le monde. Si elles posent des questions éthiques, celles-ci risquent d’être bridées par des politiques de protection de données. Europe 1 fait le point.
DÉCRYPTAGE

La promesse d’une réponse à toutes les questions à portée de clic. ChatGPT, un prototype sous la forme d’une conversation entre un utilisateur et une intelligence artificielle, remue déjà l'intelligentsia internationale quelques mois seulement après sa mise en ligne. Il faut dire que l’algorithme relève d’une prouesse : grâce à une immense base de données, il permet de répondre à n’importe quelle question de curieux, de l’écriture d’un essai philosophique à la résolution d’un problème mathématique complexe. Expérimentation créée par l’entreprise Open AI, celle-ci a déjà connu plusieurs mises à jour, se perfectionnant petit à petit. Et déjà des inquiétudes pointent le bout de leur nez.

Face à la rapidité de son développement - et surtout de son usage par des millions d’internautes - ils sont nombreux à avoir montré des réserves. Fin mars, l’entrepreneur Elon Musk et des centaines d'experts mondiaux ont signé un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT, évoquant "des risques majeurs pour l'humanité". Et contre les risques liés à la sécurité des données personnelles, l’Italie a été le premier pays à bloquer provisoirement le système avant de l'autoriser à nouveau ce vendredi

Craintes autour des données personnelles

Pour Fabrice Epelboin, spécialiste des médias sociaux et professeur à Sciences Po Paris, ces intelligences artificielles, au-delà des questions techniques, représentent un risque éthique. "Parce que les réponses apportées aux utilisateurs sont imprévisibles. Pour vulgariser, grâce à son énorme base de données, la technologie 'hallucine' une réponse qui correspond à la demande de l’utilisateur mais il est impossible de savoir précisément comment l’algorithme est arrivé à ce résultat. On ne peut pas avoir de rétro-expertise", avance-t-il.

Plus techniquement, le mode de fonctionnement de ces intelligences artificielles posent des questions sur les données utilisées. Plusieurs lois de propriétés s’y entremêlent : celle de la propriété intellectuelle lorsqu’il s’agit de production ou d'œuvre, celle du caractère personnel qui concerne donc l’identité des individus, ou tout simplement celle de la provenance des données et donc de la propriété, notamment pour les entreprises.

De là découlent deux problématiques, selon Nicolas Arpagian, spécialiste en cybersécurité et vice-président du cabinet Headmind Partners. "Il s’agit d’encadrer les questions d’autorisation d’utilisation et d’exploitation des données mises à disposition en amont" par des particuliers et des entités et "dans quels cadres elles seront exploitées en aval par les utilisateurs" notamment dans une optique commerciale, détaille-t-il.

Comment contrôler les usages ?

Une grande question rassemble toutes les inquiétudes : est-on capable de contrôler l’usage de ces intelligences artificielles et donc de cette masse de données ? Là, plusieurs pistes sont possibles, à commencer par intégrer des données cachées au contenu produit par les algorithmes, permettant une traçabilité. Autre solution : développer une intelligence artificielle capable de repérer les travaux produits par… les intelligences artificielles elles-mêmes. "Dans les premières expérimentations dans ce domaine, on obtient un résultat d’environ 40%. La fiabilité de ce dispositif est donc pour le moment très médiocre", constate Nicolas Arpagian.

La perspective d’une régulation est donc très complexe à aborder. D’autres autorités européennes, dont celles de la France, de l’Irlande ou de l’Allemagne se sont depuis rapprochées de leur homologue italienne pour établir une position commune sur ChatGPT.

Le risque d’un projet de régulation mort-né

En 2021 pourtant, la commission européenne avait déjà publié un texte fondateur, l’AI Act, visant "à encadrer l’intelligence artificielle de façon à la rendre digne de confiance, centrée sur l’humain, éthique, durable et inclusive" et instaurer un tout premier cadre légal. Mais celui-ci, au vu des avancées fulgurantes dans le domaine, serait déjà obsolète. Et la tâche, comme on l’a vu, est ardue.

"Un des gros problèmes rencontrés est surtout que le dialogue entre les législateurs et les techniciens me semble impossible, car ce ne sont pas des sphères qui communiquent et travaillent ensemble habituellement", rappelle Fabrice Epelboin. Le risque est d’obtenir un nouvel "Hadopi", cette loi réglementant la diffusion des œuvres et la protection des droits sur internet, très vite devenue inapplicable de par l’évolution des usages.

"Pour réglementer, il faut un esprit de perspectives" souligne de son côté Nicolas Arpagian : être suffisamment souple dans la présentation des mesures pour permettre la réinterprétation en fonction des évolutions. "À force de trop réglementer, le risque est aussi de 'bannir' c’est-à-dire d’effrayer les entreprises qui iront développer leur technologie ailleurs", ajoute-t-il. Une priorité pour les instances européennes semble cependant voir le jour selon l’expert : réduire les fantasmes. Et pour cela un seul outil : clarifier le rôle des intelligences artificielles.