Aujourd’hui, je vous invite dans le département R&D de Cantoche, avec son Directeur Technique, Laurent Ach. Laurent nous présente le projet MyPresentingAvatar…
![]() | Laurent Ach dirige l’équipe de Cantoche qui développe la technologie Living Actor™. Diplômé de l’École Centrale de Lyon en 1990, il a travaillé dans l’équipe Réalité Virtuelle de Thales puis pour Visiospace et pour Sagem Télécommunications. Il a participé a plusieurs projets de recherche et coordonne MyPresentingAvatar. |
L’idée à l’origine de MyPresentingAvatar est de générer automatiquement une présentation faite par un avatar à partir d’un document. Le but n’est pas de faire dire un texte existant par l’avatar mais de créer intelligemment le contenu et la forme de l’intervention de l’avatar, en sélectionnant un discours et des gestes appropriés à la présentation du texte d’origine. Ce projet est cofinancé par la DGCIS (Direction Générale de la Compétitivité, de l’Industrie et des Services) à travers l’appel à projets Services Innovants du Web (Web 2.0) et les partenaires sont : Lingway, Télécom ParisTech – CNRS et Cantoche
L’analyse sémantique d’une source textuelle par Lingway produit automatiquement des données structurées qui permettent de créer le discours de l’avatar et des indications sur son comportement non verbal. Le programme Greta développé par Télécom ParisTech se charge d’exploiter ces indications en choisissant les gestes et les attitudes de l’avatar synchronisés avec son discours. La technologie Living Actor™ permet ensuite de produire des séquences vidéo dans lesquelles l’avatar intervient pour parler avec le comportement choisi.
Ces trois composants d’analyse sémantique, de gestion de comportement et d’animation de l’avatar sont intégrés dans une application en ligne développée par Cantoche. Ils forment la chaîne de génération automatique de présentation par un avatar.
L’automatisation du discours et du comportement de l’avatar ne doit pas enlever à l’utilisateur le contrôle qu’il exerce sur la présentation finale. Cantoche a donc développé une interface utilisateur qui lui permet de modifier les parties du discours produites automatiquement, de réordonner les séquences et de retoucher les animations expressives sélectionnées par le module de gestion de comportement.
Le projet se déroule sur deux années et se terminera fin 2011. Le premier prototype de l’application MyPresentingAvatar génère automatiquement des présentations de candidats à une offre d’emploi à travers leurs avatars, en partant de leur CV. La deuxième version du prototype permettra de présenter des statistiques recueillies à propos des sujets de discussion les plus présents sur Internet, durant une période donnée. La première version est terminée et une maquette de la deuxième version est visible sur le blog de Lingway.
Les retombées de ce projet seront très importantes non seulement pour de futures applications commerciales dérivées des prototypes, mais aussi pour l’évolution de notre technologie Living Actor™. L’application en ligne Living Actor™ Presenter par exemple, bénéficiera du travail réalisé sur de nouveaux composants d’interface utilisateur pour le contrôle des animations de personnages.
Présentations personnelles générées automatiquement selon le contexte, analyse des tendances du web grâce à une veille et une mise en forme automatique… les avatars s’imposent comme nos représentations mais aussi comme de véritables assistants dans de nombreux usages.
Selon vous, quelles sont les grandes tendances de l’utilisation des avatars dans les prochaines années ?
Andrew