Le machine learning, la reconnaissance vocale et l’apport des émotions dans les interactions homme-machine sont les technologies les plus prometteuses se rapportant à l’intelligence artificielle, en particulier pour les assistants virtuels de demain. Living Actor™ participe a plusieurs projets de recherche et développement collaboratifs autour de ces thèmes pour rester innovant et conserver un avantage compétitif.
Dans leur Top des prédictions stratégiques pour 2016 et après, l’analyste Gartner souligne le fort impact qu’auront l’intelligence artificielle et les assistants virtuels sur les entreprises dans les prochaines années.
Face à une demande en forte croissance, l’Assistant Virtuel Intelligent (AVI) de demain doit tirer profit des nouvelles technologies pour être mis en place efficacement. Avoir des outils de création simples d’AVI est une priorité pour les entreprises désireuses d’avoir un assistant virtuel dédié mais voulant conserver une forte autonomie pour le faire évoluer rapidement. Pour cela, Living Actor™ participe depuis ses origines à des projets de recherche collaboratifs veillant à concevoir une plateforme qui automatise au maximum les processus de création et d’amélioration d’AVI. Le projet My Presenting Avatar, financé par la DGCIS et en partenariat avec LTC-Telecom ParisTech et Lingway, a permis par exemple de créer un processus d’analyse d’un document textuel pour en générer automatiquement une présentation faite par un AVI.
Le second axe de recherche de Living Actor™ concerne l’apport d’émotions dans les interactions homme-machine, en se concentrant sur l’avatar animé parlant, comme dans les projets Ilhaire, HUMAINE, ou Affective Avatars. Selon Luca Rigazio, Director of engineering au Panasonic Silicon Valley Laboratory, la capacité des Assistants Virtuels à exprimer des émotions et à entretenir des discussions permettra d’établir des relations de long terme inédites entre humains et machines.
Cette année, Living Actor™ est partenaire de deux autres projets de recherche, qui permettent d’esquisser ce que sera l’Assistant Virtuel de demain.
Projet ODISAE: concevoir des AVI auto-apprenants
ODISAE (Optimizing Digital Interaction with a Social and Automated Environment) est un projet collaboratif FUI labélisé Cap Digital dont le chef de fil est Eptica, regroupant des partenaires experts en langage naturel, comme le Laboratoire Informatique de Nantes Atlantique. Il s’est terminé le 15 juillet 2016.
Son but est de créer un outil d’analyse linguistique pour les conversations en ligne qui utilise ses résultats pour enrichir un système de gestion de la relation client de fonctionnalités sémantiques. Le projet est basé sur le Traitement Automatique du Langage Naturel, qui permet l’analyse et la qualification des conversations. Ces données sont ensuite collectées et utilisées pour enrichir une base de connaissances.
Ce projet permet d’entrevoir les possibilités offertes par le machine learning, cette capacité des intelligences artificielles à apprendre de façon autonome. Avec les futurs Assistants Virtuels, les échanges seront analysés en temps réel et les éléments importants du dialogue seront immédiatement repérés, pour enrichir la base de donnée associée. De ce fait, l’Assistant Virtuel sera de plus en plus performant et proactif, sans nécessiter l’intervention d’une équipe technique. Sa mise en place en sera facilitée, son utilisation simplifiée.
Projet ARIA-VALUSPA : rendre les AVI plus empathiques
ARIA-VALUSPA (Artificial Retrieval of Information Assistants – Virtual Agents with Linguistic Understanding, Social skills, and Personalised Aspects) est un projet collaboratif européen dans le cadre de l’appel Horizon 2020, financé par la Commission Européenne, dont le chef de fil est l’Université de Nottingham, en collaboration avec cinq grandes universités européennes. C’est un projet de 3 ans, qui se terminera le 31 décembre 2017.
Son but est de faciliter la création d’un assistant virtuel ARIA capable d’interactions sociales multimodales. En utilisant des signaux audio et vidéo en entrée, il est capable de détecter les signaux verbaux, mais également non verbaux du dialogue de son interlocuteur. Il peut par exemple se baser sur la voix pour détecter le genre de la personne ou son niveau de stress, et sur les expressions du visage ou la posture pour estimer son humeur ou son engagement dans la conversation. Il sera ensuite capable de réagir de manière appropriée à ce comportement grâce à un système de gestion de dialogue sophistiqué et un modèle de personnalité émotif et réaliste. L’ARIA possède un synthétiseur vocal spécial pour créer un discours émotionnel et un visage 3D entièrement expressif.
L’AVI de demain sera de plus en plus réaliste car capable de reproduire des émotions. Au delà de sa prise de parole, il pourra réagir en temps réel au discours de son interlocuteur. Par exemple, et contrairement aux AVI actuellement sur le marché, il pourra gérer les interruptions de ce dernier et y apporter la réponse adéquate. Son emploi permettra d’instaurer une véritable relation de confiance avec l’utilisateur grâce à l’empathie qu’il suscitera.
De l’importance de la R & D pour Living Actor™
En tirant pleinement parti du machine learning et en intégrant encore plus d’émotions dans leurs interactions, les futurs AVI de Living Actor™ répondront aux demandes grandissantes des entreprises.
Les projets de recherche collaboratifs sont des opportunités pour développer la spécificité de ces produits. Selon Laurent Durieu, CTO de Living Actor™ : « Les projets de recherche collaboratifs nous permettent de rester en avant garde de l’innovation et d’être un membre actif du marché des AVI. La dynamique de nos produits est assurée et nous conservons notre compétitivité ».
Déjà forts de nombreuses fonctionnalités innovantes, les AVI Living Actor™ n’auront de cesse de se perfectionner, pour anticiper les besoins de demain !