XXII nourrit l’appétence des marques pour l’immersif et l’interactif

Le studio d’innovation XXII allie R&D et recherche applicative autour des industries créatives au service de la communication des marques.

Co-fondateur de XXII, William Eldin a un credo : instruire le futur pour créer l’avenir. De l’intelligence artificielle aux neurosciences en passant par la création de contenus immersifs, nous sommes allés à sa rencontre. Entretien.

Hello Open World : Pouvez-vous nous présenter en quelques mots XXII ?

William Eldin : Avec un capital de départ de 1 million d’euros et 60 collaborateurs, XXII réalise 300.000 euros de chiffre d’affaires par mois, et vient de s’implanter à Shenzhen. Notre développement se concentre autour de trois axes, le premier représentant aujourd’hui 70% de notre chiffre d’affaires. Il s’agit de l’axe contenus, allant des contenus ciblés expériences sur le web, aux applicatifs regroupés sous le triptyque réalité virtuelle (VR), augmentée (AR) et mixte (MR), en passant par la 3D (After Effects), les effets spéciaux et la vidéo.

Nous constatons aujourd’hui du côté des marques une vraie appétence pour l’immersif et l’interactif, et nos références en témoignent : BNP, Bouygues Telecom, Clear Channel, Dassault, Google, Groupe M6, GRDF, Netflix, Novartis, TF1, UNICEF, WPP…

Jusqu’ici les marques passaient toujours par les agences de communication pour leurs idées créatives, mais celles-ci ne sont pas aujourd’hui en mesure de les développer et de les rendre applicatives. C’est ce qui explique le pouvoir d’attraction de XXII, dans un contexte d’accélération technologique et des savoirs informatisés.

Pour XXII le monde technologique est fait de trois niveaux : l’applicatif (ce que tout le monde voit), le système (ce que personne ne voit mais qui fait fonctionner l’applicatif) et enfin l’hardware (le silicium, la base). Et nous avons vocation à être leaders sur le niveau système.

HOW : Quels sont les axes de développement les plus prometteurs en matière de contenus de marque expérientiels ?

WE: Les couples TV / VR ou Gaming / VR sont de réels accélérateurs pour « naturaliser » les briques technologiques de demain. C’est le cas, par exemple, de notre dernier jeu de narration VR, Dwingle B.O.T conçu pour les casques HTC Vive et Oculus Rift. Loin d’être un simple ‘shooter de zoobies’, cette expérience VR mixe plus étroitement des réalités physiques et virtuelles en implémentant les échanges homme-machine directement dans l’univers virtuel.

[vc_video link= »https://www.youtube.com/watch?v=tlvduidZDJw&t=119s » align= »center » css_animation= »fadeIn »]

Dans le premier, l’idée était de sortir un robot (Botanic) qui évolue avec le joueur dans son interaction avec l’environnement et ainsi de se départir de l’image terminatorienne du robot pour une vision apaisée, et presque de « compagnonnage d’espèce ».

Puis nous nous sommes concentrés sur cette connexion joueur-robot, en embarquant plusieurs technologies. Dans l’épisode 2, ce bot « sauveur de l’humanité » vient s’appuyer sur un peu d’intelligence artificielle pour correspondre encore plus aux goûts et aux préférences du joueur – et devenir ainsi son meilleur « robot-ami » dans le jeu. C’est par le deep learning et via son propre réseau neuronal artificiel que ce compagnon de jeu peut en effet se développer, co-évoluer.

[vc_video link= »https://www.youtube.com/watch?time_continue=3&v=tTeX3LtVURE » align= »center » css_animation= »fadeIn »]

La next step repose sur l’intégration de la couche de neuroscience avec HTC Vive. En effet le grand prochain sujet sur ce chantier, c’est la création de briques d’IA centrées sur la reconnaissance émotionnelle, autrement dit commencer à capter le stress et à déverrouiller des paramètres de jeu en fonction du comportement du joueur.

HOW : L’IA générale : votre deuxième axe de développement chez XXII ?  

WE : Effectivement le software (ou intelligence artificielle, IA) renvoie à une importante roadmap en interne, et à des cas d’usages qui tombent tous les six mois environ pour nourrir le marché. Et nous travaillons aujourd’hui sur trois éléments en IA : le computer vision (CV), le natural language processing (NLP) et l’IA généraliste, soit tout ce qui est classification et contextualisation des données. Ces trois éléments sont essentiels pour nous car ils nous éloignent du modèle tributaire de l’algorithme simple/du marketing. Nous nous attachons ainsi à développer tous nos projets avec un objectif d’apprentissage non-supervisé. Il ne s’agit donc pas d’un couloir de décisions, ni de code, ou encore de « if » (pour instruction if), mais bien d’une logique clairement apprise par des réseaux neuronaux artificiels (RNA) venant s’appuyer sur de la donnée au début pour développer une IA ayant vocation à terme à devenir une vraie intelligence autoportée entre le traitement de signal (donc l’acquisition des données) et un réseau neuronal simulateur du fonctionnement cognitif d’un être humain. Nous sommes donc sur des architectures de surfaces de décisions non-linéaires et de connexités. Et ce que l’on peut dire aujourd’hui avec toutes ces briques d’IA, c’est que l’on a un bébé de six mois ! Il est dans le mimétisme et commence à comprendre par exemple nos intonations de voix, etc.

[vc_video link= »https://www.youtube.com/watch?v=jrZoHvr_65I » align= »center » css_animation= »fadeIn »]

HOW : Quelle est la place de la data dans l’épanouissement de cette IA dédiée à l’immersif ? Faut-il parler plus de big data ou de small data, par exemple ?

WE: Pour moi l’intelligence artificielle ne va pas se développer de manière fine par le volume de données mais par la méthode d’apprentissage. Je dirais même que le smart data (ou données de tous les jours) est davantage l’or noir pour le futur de nos IA que le phénomène Big data, qui peut être restrictif, de par le simple fait qu’elles seront bio-inspirées et qu’elles devront ainsi apprendre petit à petit. Les réseaux de neurones artificiels sont en effet construits comme le miroir du schéma biologique. Donc si nous modélisons comme le cerveau, alors faisons tout comme lui !


Lire aussi :  Les technologies bio-inspirées imitent le vivant pour réduire la data

On veut tout accélérer parce qu’avec les GAFA on se sent tous dans les filets technologiques. Mais de fait on ne peut pas aller plus vite que le système silicium, que la méthode des ASICs (des Circuits intégrés pour applications spécifiques). En façonnant brique par brique, en s’appuyant sur l’être humain, nous pourrons augmenter à terme ses sens, son intelligence.

HOW : Pouvez-vous nous donner un exemple concret en cours où la R&D en IA a débouché sur une solution d’accélération et croissance économique pour un marché cible ?

Par exemple le couple IA & TV pour la publicité avec l’incrustation en temps réel de placement produit. Il s’agit de situer la page de pub en fonction du temps vendu aux marques dans un contenu pour, d’une part, répondre aux attentes des millennials en faisant disparaître la pub ; et d’autre part, raccourcir la chaine de valeur côté régie publicitaire. Ainsi l’idée est d’appliquer l’approche de la pub en ligne (les solutions de l’AdTech) au monde de la télévision face aux enjeux de l’on-demand, de la publiphobie et de la sur-sollicitation.

En effet, c’est aujourd’hui 18,9 millions de vidéos vues chaque jour en France via la TV de rattrapage, près de 60 millions d’abonnés payants pour Netflix avec la révolution SVOD.

Nous voyons que les acteurs du marché assistent à une « délinéarisation » télévisuelle et la solution passe par l’ingénierie des données via des algorithmes comme ceux de l’analyse automatique des contenus s’appuyant sur les techniques de natural language processing (NLP).

HOW : Et pour demain : quel est le prochain grand challenge selon vous ?

Très clairement, le brain computer interface, ou le fait de pouvoir contrôler son environnement via les signaux électriques et électro-magnétiques. Il s’agit de neuro-périphériques/systèmes entre les interfaces d’aujourd’hui (display, laptops, etc.) et le cerveau.

Ces derniers redéfinissent complétement notre relation à la machine : moins invasive. En effet via la technologie du neurofeedback – soit l’enregistrement et l’analyse électrique automatique de l’activité du cerveau – nous pourrions être en mesure de communiquer avec nos artefacts. Se dévoile alors une nouvelle langue, à en croire les travaux de certains scientifiques. Imaginer un alphabet du cerveau, un dictionnaire du cerveau qui viendrait se augmenter nos pensées : c’est signer la fin définitive des interfaces.