2:46
  • Copié

Chaque matin, Jean Zeid livre ce qu’il se fait de mieux en matière d'innovation. Ce mercredi, il s'intéresse à l'intelligence artificielle Iris qui parle la langue des signes.

Ce mercredi matin, on parle d’une intelligence artificielle qui parle la langue des signes.
Depuis l’avènement des IA conversationnelles depuis 2 ans et l'apparition de ChatGPT, on se demande pourquoi cette innovation n’est pas arrivée plus tôt. L'innovation est le produit d'un partenariat entre trois société : Ivès, IBM et Sopra Steria. Le nom de cette IA, vous le savez, chaque IA a son petit nom : Claude, Albert, Mistral. Celle qui nous concerne ce matin s’appelle IRIS, c’est un chat bot, ou plutôt un « signbot » en fin de semaine dernière. IRIS qui est le « premier » bot à comprendre les langues des signes et à répondre en temps réel en langues des signes.
Comment se présente cette intelligence artificielle ?
IRIS peut utiliser n’importe quelle caméra pour capter les points clefs des mouvements de l’utilisateur et surtout ses mains pour comprendre la demande exprimée en langue des signes. On lui parle en langue des signes, et l’IA il faut la voir évidemment, ce n’est pas qu’une simple réponse textuelle ou vocale ou même photographique, il y a un avatar sous la forme d’une personne plutôt réaliste en trois dimensions qui répond avec une réponse en langue des signes naturelle.
La solution intègre une technologie IBM qui permet des échanges en Langue des Signes Française (LSF), en Langue des Signes Québécoise (LSQ), en Langue des Signes Américaine (LSA) et en Langue des Signes Tunisienne (LST). Concrètement, l'intelligence artificielle est capable de comprendre la langue des signes, et d'y répondre. Et ça, en termes d’inclusion, c’est imbattable. Ce qui fait d’Iris, le premier chatbot en langue des signes au monde.
À quel type de situation répond cette IA ?
Iris est déployable sur des supports tels que des écrans géants fixes. Evidemment, on pense à des lieux accueillant du public : cinéma, supermarché, gare, etc. Mais on peut voir aussi beaucoup plus grand puisque Iris, à en croire ses concepteurs, fonctionne également sur tablettes mobiles ou encore un navigateur web et là, cela répond à tout type de situation : chercher un bon resto autour de soi, chercher un numéro de téléphone, trouver la recette des pancakes.  
L'objectif de l'outil est clair : permettre aux utilisateurs sourds et malentendants de participer plus facilement aux échanges et aux activités du quotidien, une solution complète allant de l’entraînement des modèles d'intelligence artificielle à leur déploiement.
La technologie Iris est-elle déjà déployée ?
Non, pour l’instant, c’est la phase de test, elle est opérationnelle dans l’Innovation Studio d’IBM à Bois-Colombes dans les Hauts-de-Seine en région parisienne. Bientôt, ce sera également le cas dans les locaux de Sopra Steria à Paris. Mais vous pouvez demander un rendez-vous pour une démo en ligne d’IRIS sur le site de Ivès. L’idée est de déployer l’outil en dans des lieux physiques et sur le web petit à petit.