Cinéma et VR

Cinéma et VR

La réalité virtuelle, ou VR pour les intimes, bouscule beaucoup de domaines à mesure qu’elle se développe. Et parmi eux, le cinéma.

Il y a pourtant de grandes différences entre ces deux médias, et s’ils utilisent tous deux l’image comme vecteur principal d’informations, bon nombres d’aspects les séparent.

Historiquement, le cinéma a plus de trente ans d’avance sur la réalité virtuelle. Il a donc pu développer une grammaire propre, avec ses codes liés aux contraintes et aux libertés inhérentes aux techniques utilisées, comme les couleurs et la composition, ou encore le cadrage et le montage.

En ce qui concerne la VR, une grande partie de ces codes sont inutilisables. Plus de notion de cadre, les spectateurs sont libres de regarder où bon leur semble, quitte à rater l’action ; oublié le montage épileptique, sous peine de voir son public tourner de l’oeil. Les scénaristes et les réalisateurs sont faces à de nouvelles problématiques, qui distinguent foncièrement le cinéma de la VR.

Les enjeux du film VR

Au centre de toutes les préoccupations se trouve le concept de présence, cette sensation de se retrouver transporté dans un monde créé de toute pièce, tout en ayant l’impression d’y être réellement. Il regroupe à lui seul les questions de placement du spectateur au sein du film, de son implication et de son accompagnement au long de l’expérience.

Certaines expériences ont montré que le choix de l’angle de vue accessible au spectateur (360°, 180° ou bien 90°), le rythme des changements de point de vue et le positionnement de celui-ci jouent énormément sur le ressenti des spectateurs et leur capacité à mémoriser les détails du film visionné.

Les scénaristes et les réalisateurs sont faces à de nouvelles problématiques, qui distinguent foncièrement le cinéma de la VR.

Trouver l’équilibre entre une bonne orientation du spectateur et un rythme bien maîtrisé pour que son expérience soit la plus qualitative possible n’est déjà pas une mince affaire, et nous n’avons pas encore abordé la question de la place de l’interactivité offerte par la VR dans le scénario. A la différence du cinéma, le spectateur peut se retrouver partie intégrante de l’intrigue. Quelques oeuvres exploitent ce filon, comme Miyubi, ou le spectateur peut “débloquer” des niveaux d’intrigues supplémentaires en fixant des éléments du décor, ou encore Broken Night, où l’histoire évolue en fonction de l’endroit où regarde le spectateur.

 

Broken Night

Broken Night

Mais que les potentiels réalisateurs en herbe se rassurent : il semblerait qu’être observateur soit déjà un travail suffisant pour les spectateurs. La plupart des films du genre doivent même se limiter en terme de temps, pour éviter de fatiguer son audience. La durée moyenne des films en VR est d’environ 10 min ; Miyubi, avec ses 40 min de film, est à ce jour, le plus long film en réalité virtuelle.

Deux domaines finalement bien distincts

Finalement, la question de l’incarnation du futur du cinéma par la VR est hors de propos. L’expérience même du spectateur diffère grandement d’un médium à l’autre ; au même titre que la photographie n’a pas disparu en tant qu’art au profit de la vidéo, le cinéma ne disparaîtra probablement pas au profit de la VR.

On peut toutefois espérer que les deux médias apprennent l’un de l’autre, et que la VR puisse proposer de plus en plus de contenu de qualité.

De l’importance d’accepter et d’avancer avec l’Intelligence Artificielle

De l’importance d’accepter et d’avancer avec l’Intelligence Artificielle

L’Intelligence Artificielle… Comme expliqué dans un précédent post, ce mot est dans toutes les bouches, au cœur de la stratégie d’un grand nombre d’entreprises. Nous-mêmes, chez XXII, en faisons notre cheval de bataille, notre vision, notre pari sur l’avenir.

Et pourtant, c’est un terme qui est mal défini et à cause de cela réveille des craintes enfouies, pour des raisons plus ou moins légitimes.

La principale est liée à l’emploi. Cette peur est-elle justifiée ? Non, mais il y a des préoccupations dont il faut s’occuper dès maintenant.

Photo : Dierk Schaefer

Photo : Dierk Schaefer

En effet, nous ne sommes pas encore prêts à l’automatisation qui arrive. Même si nous ne savons pas tout ce qui se passe, d’un point de vue politique, les bonnes questions ne sont pas posées. Rien n’est entrepris alors que la France et l’Union Européenne sont déjà en retard par rapport à l’exploitation de l’IA. Par ailleurs, nous sommes davantage sur un débat sociétal que politique et on se retrouve dans la situation du serpent qui se mord la queue : la société attend des réponses et des éclaircissements de ses politiques, alors que ceux-ci pratiquent la méthode de l’autruche, ignorent les problématiques fondamentales et entretiennent le retard déjà pris par rapport à d’autres pays.

Nous sommes également dans une évolution logique des technologies. Toutes les avancées scientifiques sont bénéfiques, il ne tient qu’à nous d’en déterminer une utilisation positive pour l’humanité. Il vaut mieux l’accepter, chercher à la comprendre et ne pas chercher à l’éviter. Car lorsque l’on commence à refuser les sciences, on accepte indirectement de ne plus être en phase avec l’innovation et donc moteur économique puisque l’innovation technique et économique ne peut se faire que grâce à l’avancée scientifique. Si l’on reste dans ce refus, on prend alors le risque d’un retrait de notre pays, de notre économie, de notre position d’innovateur pour aller vers une position de consommateur, ce qui revient à la situation d’un pays du tiers-monde en soi.

Toutes les avancées scientifiques sont bénéfiques, il ne tient qu’à nous d’en déterminer une utilisation positive pour l’humanité.

Quelles sont les solutions ? Ne pas attendre des politiques qu’ils nous confortent, nous rassurent, mais plutôt pousser tout le monde à participer au débat : les salariés, les entreprises, les infrastructures, les institutions…. Tout le monde doit se sentir concerné. Il faut arrêter d’espérer des politiciens qu’ils comprennent et prennent des décisions. Il faut comprendre que les politiques ont une vision court terme, les ré-élections, tandis que l’IA a une vision à très long terme. Ce sont principalement les entreprises qui vont rassurer et mener le débat. C’est risqué mais ce sont elles qui vont pouvoir aller vite et faire avancer les choses.

Une autre solution clé, qu’il va falloir mettre en place rapidement, est de changer la formation et l’éducation. Il y a un véritable manque d’éducation sur le sujet de l’IA et de la robotique. C’est un sujet intense et rapide, on pense en savoir beaucoup mais la réalité est que nous sommes encore dans l’ignorance. En revanche, plus la société comprendra et appréhendera tôt les tenants et aboutissants de cette transformation technologique, plus nous pourrons avancer tous ensemble, dans le bon sens.

[...] l’IA va permettre de libérer du temps pour d’autres tâches et va développer de nouveaux métiers dont nous ignorons l’existence aujourd’hui.

Au-delà de cet aspect sociétal, il est important de noter que, certes, l’automatisation va enlever certaines de nos tâches, mais surtout l’IA va permettre de libérer du temps pour d’autres tâches et va développer de nouveaux métiers dont nous ignorons l’existence aujourd’hui. Prenons l’exemple de la révolution digitale dont de nouveaux métiers sont sortis (community managers, directeurs digitaux, etc.). L’IA va devenir ce que les ordinateurs sont devenus dans le monde du travail. Une personne ne sachant pas utiliser un ordinateur aura des difficultés à trouver un emploi, il en sera de même avec l’IA. La majorité voire tous les secteurs et emplois vont devoir s’adapter et utiliser l’IA accompagnatrice.

Dans le fond, la question n’est pas tant de savoir si l’on a peur de l’IA, car la réponse est non. En revanche, oui la société a peur de son application. Mais il est temps d’arrêter les questions, de dépasser cette peur du changement et de la décision, de prendre le risque même s’il nous est imposé et de changer notre approche du travail.

Mais il est temps d’arrêter les questions, de dépasser cette peur du changement et de la décision, de prendre le risque même s’il nous est imposé et de changer notre approche du travail.

Bien comprise et bien appréhendée, l’IA, nous en sommes sûrs, deviendra le complément de l’Homme, son extension…mais pas son remplacement.

 

Où commencer pour comprendre l’IA?

Où commencer pour comprendre l’IA?

Une brève introduction à l’histoire de l’Intelligence Artificielle

Vous avez dit Intelligence Artificielle?

Vous l’aurez compris, l’Intelligence Artificielle, de son acronyme IA, est LE sujet en vogue. Il est partout, tout le monde l’intègre dans ses produits, les "spécialistes" de la question fleurissent un peu partout… Mais personne n’arrive à se mettre d’accord sur une définition commune de l’IA. Ce qui est assez compréhensible quand on considère que la discipline s’attache à décoder et imiter une caractéristique humaine on ne peut plus floue : l’intelligence.
Avec le retour de l’IA sur le devant de la scène, nous nous sommes attelés à (re)définir ce qu’était l’intelligence. Avec le temps, ses définitions sont devenues de moins en moins subjectives : des progrès ont récemment été fait sur la reconnaissance de plusieurs types d’intelligence, avec la popularisation des concepts d’intelligences sociale et émotionnelle entre autres choses.

Mais malgré tous ces efforts, la définition de l’intelligence reste encore abstraite.

Où donc commencer pour comprendre ce qu’est l’IA?

La première mention d’Intelligence Artificielle en tant que nouveau domaine scientifique indépendant remonte à 1956, lors d’un colloque au Dartmouth College, rassemblant entre autres Allen Newell, Herbert Simon, John McCarthy, Marvin Minsky et Arthur Samuel.
À cette époque, Minsky a défini l’IA comme “la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau”.
Plutôt vague et indigeste n’est-ce-pas? Et pourtant, il s’agit de la première définition générale depuis les premiers pas de l’IA, que l’on pourrait situer aux alentours des années 40.

Les débuts de l’IA peuvent être assimilés à l’expansion de l’automatisation.

Les débuts de l’IA peuvent être assimilés à l’expansion de l’automatisation.

En effet, les débuts de l’IA peuvent être assimilés à l’expansion de l’automatisation. Au commencement étaient de simples algorithmes, pensés pour imiter les mouvements humains de manière à automatiser les tâches lourdes et répétitives dans les usines. Puis les années 70 virent arriver les “systèmes experts”. Ces algorithmes étaient destinés à copier le processus de prise de décision humain, en empilant plusieurs couches de règles “si… alors” pour permettre aux machines de résoudre des problèmes complexes. Introduits par le Projet de Programmation Heuristique de Stanford d’Edward Feigenbaum, ces systèmes étaient capables d’interpréter des résultats basés sur des données récupérées par des capteurs, de superviser des projets et de la maintenance de systèmes, ou encore de configurer des systèmes en fonction de contraintes données.

Des hauts et des bas : les trois piliers de l'IA

En parallèle de cette approche mathématique de l’IA, les recherches focalisées sur le fonctionnement du cerveau et les mécanismes d’apprentissage ont également apporté plusieurs avancées scientifiques à l’IA. L’une des plus importantes d’entre elles en terme d’architecture logique est probablement la notion de Réseaux de Neurones Artificiels (RNA).

Les RNA sont des systèmes informatiques inspirés du réseau neuronal humain. (Photo : Hao Wang )

Les RNA sont des systèmes informatiques inspirés du réseau neuronal humain. (Photo : Hao Wang )

Les RNA sont des systèmes informatiques inspirés du réseau neuronal humain. À la différence des algorithmes programmés de manière conventionnelle, qui requièrent une décomposition précise du problème à résoudre en sous-étapes bien découpées et détaillées pour fournir une solution, les RNA peuvent apprendre et s’améliorer, et de fait s’adapter d’eux-même au problème qui leur est présenté.  
Ce concept a d’abord été développé à la fin des années 40 par Donald O. Hebb, un psychologue menant des travaux en neuropsychologie, et la première modélisation d’un RNA a été réalisé au début des années 50. A partir de là, le phénomène s’est répandu et a connu un âge d’or dans les années 60.

Malheureusement, les recherches, que ce soit sur les “systèmes expert” ou sur les RNA, ont dû faire face à une stagnation due aux limitations imposées par la puissance de calcul des ordinateurs de l’époque, alors insuffisantes. L’incapacité des RNA à traiter certaines opérations logiques porta également un coup aux avancées dans le domaine. Du fait de l’échec des algorithmes à résoudre dans des délais raisonnables les problèmes auxquels faisaient quotidiennement face les humains, l’IA fut progressivement décriée, jusqu’à être qualifiée de “jouet” dans le rapport de Lighthill en 1973. Les coupures de budget successives gelèrent les innovations en IA, et la discipline connut son premier “hiver”.

L’IA repose sur trois domaines majeurs : la compréhension du cerveau humain, l’approche technologique de la résolution de problème, et le matériel informatique

Ce qui nous amène à considérer l’un des aspects les plus importants concernant l’IA : l’interconnexion des domaines qui sous-tendent le développement de l’IA. En effet, l’évolution de l’IA repose sur trois piliers : la compréhension du cerveau humain, l’approche technologique de la résolution de problème, et le matériel informatique. Sans avancées conjointes dans ces trois axes, les recherches en IA se heurtent à toutes sortes de limitations.

Dans les années 90, les marchés orientés vers l’IA se sont effondrés après les échecs répétés des algorithmes à gérer et à retranscrire dans son ensemble toute la complexité de notre monde, notamment du fait de la quantité faramineuse d’informations à traiter. L’ “IA” est devenu un gros mot, et un certain nombre de nouvelles disciplines ont vu le jour. Le machine learning, le deep learning, le big data, ou encore le web sémantique se sont développé pour pouvoir soutenir les besoins croissants de la gestion de données et du traitement du signal et de l’image, prenant le relais de l’IA comme autant de sous-disciplines plus spécialisées. Plusieurs avancées ont été faites dans ces domaines isolés, sans que cela ait de réelles conséquences sur la recherche en IA à proprement parler.

Image générée par Deep Dream, programme créé par Google utilisant un réseau neuronal convolutif.

Image générée par Deep Dream, programme créé par Google utilisant un réseau neuronal convolutif.

Le renouveau de l'IA

C’est à partir des années 2000 que le renouveau de l’IA s’est fait ressentir : les disciplines ont de nouveau convergé, soutenues par l’amélioration constante des capacités de calcul des ordinateurs et la révolution des PC. Les travaux en RNA ont produit des résultats significatifs, qui ont même permis de proposer de nouvelles approches neuropsychologiques dans la compréhension du cerveau.

Les algorithmes n’étaient peut-être pas plus intelligents, mais ils étaient plus puissants, et le nombre d’applications a explosé. De là, des sociétés comme Google, Microsoft, Qualcomm, ou Nvidia ont commencé à intégrer complètement l’IA à leurs services.
Un changement de paradigme s’est produit. Au lieu de se focaliser sur les performances brutes, une approche plus humaine a émergé : les émotions et les interactions sont devenues la base de l’évaluation et du design d’une IA. Si quelques années auparavant l’amélioration de 0,01 % de la précision d’un algorithme de reconnaissance faciale était l’objectif à atteindre, les chercheurs tendent maintenant à favoriser la création d’algorithmes capables de reconnaître à coup sûr des visages avec un minimum de paramètres, quelque soit la méthode employée ou sa précision.

Quoi qu’il en soit, l’IA a toujours été source de fantasmes, plus ou moins effrayants. La vieille méfiance diffuse envers le progrès et la technologie a commencé à se cristalliser autour de la peur de voir notre quotidien complètement transformé. Des termes comme celui d’IA forte ou faible ont commencé à émerger pour différencier les IA dotées de conscience, capable de percevoir ou de ressentir des choses (IA forte), des IA plus basiques, incapables de conscience et focalisées sur des problèmes bien définis (IA faible). Des discussions sérieuses à propos de l’impact de l’AI sur nos sociétés ont commencé en 2014-2015, après que plusieurs experts aient écrit une lettre ouverte demandant à mener des études sur l’intégration de l’IA dans nos vies.

... Et donc, qu'est ce que l'IA?

Comment pouvons-nous donc décrire l’IA? Comme nous avons pu le constater, l’IA est un patchwork de disciplines et de paradigmes reposant les uns sur les autres pour partir à la conquête d’un concept que personne n’appréhende de la même manière.
Malgré tout, bien que définir ce qu’est l’IA soit une tâche compliquée, il reste important de poser des bases communes pour approfondir le sujet.
Le consensus actuel définit l’IA comme l’ensemble des méthodes et techniques permettant à un système de trouver des solutions à un problème, sans avoir accès à des processus systématiques de résolution et sans considération pour l’optimisation parfaite de la solution proposée.

En définitive, il n’y a toujours pas de vraie entente sur ce que l’IA est et où la recherche dans ce domaine nous mènera. Il est très complexe de déterminer quelle va être la prochaine phase de cette évolution, en regard des connexions étroites entre les divers domaines de la science. La seule chose certaine, c’est que nous avons encore énormément de choses à comprendre. C’est un peu comme si nous étions revenu à une époque où la pomme de Newton attendait de tomber sur la bonne tête...

En définitive, il n’y a toujours pas de vraie entente sur ce que l’IA est [...]. C’est un peu comme si nous étions revenu à une époque où la pomme de Newton attendait de tomber sur la bonne tête...

Retour sur la Unite Europe 2017

Retour sur la Unite Europe 2017

Unite Europe 2017

Unite Europe 2017

User-friendly : c’était le maître mot de la Unite Europe, l’événement européen de Unity, qui a eu lieu du 27 au 29 Juin dernier à Amsterdam. Que ce soit au travers de plugins permettant de rendre l’utilisation de Unity plus claire et intuitive, ou via le lancement de features accordant plus de libertés aux développeurs, Unity a axé l’édition 2017 sur la simplification de l’expérience utilisateur.

Lors de la keynote de présentation de la version 2017.1 de Unity, deux plugins en particulier ont été mis en avant : Cinemachine et Timeline, ainsi qu’un nouveau compilateur C Sharp.

Avec Cinemachine, Unity propose un plugin offrant une meilleure gestion des caméras, et permettant des mouvements de caméras toujours plus sophistiqués. Quant à Timeline, comme son nom l’indique, il permet de faciliter la gestion de toutes les animations et évènements dans une seule “timeline”, au lieu d’avoir à les gérer individuellement comme c’était le cas jusqu’à présent. A eux deux, Cinemachine et Timeline permettent de réaliser des animations à la manière d’un véritable “réalisateur”, sans avoir à écrire une ligne de code.

Cinemachine

Cinemachine

Parallèlement à cet élan de démocratisation de l’utilisation du moteur, Unity a également amorcé un retour vers des outils plus modulables. Avec son nouveau compilateur C Sharp, Unity donne aux développeurs la possibilité de gérer eux-mêmes l’attribution de certaines tâches aux différents composants de leur machine. En ré-attribuant intelligemment les ressources, les utilisateurs pourront profiter d’applications plus qualitatives, sans contreparties.

Nos équipes ont également été mises à l’honneur durant la Unite, sur le stand “Collaborate”. En partenariat avec Unity, nous utilisons depuis quelques mois déjà l’outil “Collaborate”, une occasion pour nos équipes sur place de proposer un retour d’expérience, et pour Unity de réaliser une vidéo montrant ce que peut donner la puissance de Unity entre de bonnes mains!

XXII mis à l'honneur sur le stand Collaborate, Unite Europe 2017

XXII mis à l'honneur sur le stand Collaborate, Unite Europe 2017

LIER L'ÉMOTION ET LA TECHNOLOGIE : RETOUR SUR LE VIVA TECHNOLOGY 2017

Il y a quelques jours, lors du salon international Vivatech, nous avons présenté la première brique issue de notre laboratoire de R&D en IA : la reconnaissance émotionnelle. Face à une borne interactive généreusement mise à disposition par Clear Channel, nos visiteurs ont pu afficher leur plus belles expressions pour tester notre tracking d’expression. Après s’être enregistrés auprès de notre robot animateur Pepper, le visage des utilisateurs était scanné et l’expression affichée par ceux-ci était associée à une émotion, assortie d’un « mood fact » pour apprendre quelques anecdotes liées à nos émotions. Une photo de l’expérience était ensuite envoyée au visiteur en souvenir. Pour l’occasion, quatre principales émotions étaient identifiées : la joie, la surprise, la tristesse et la colère.

 Plusieurs points clés du visage sont analysés lors de cette expérience, comme le froncement des sourcils, la position de la bouche ou l’écart pupillaire. Nos expressions faciales étant très liées à nos émotions, notre approche géométrique nous permet d’attribuer des pourcentages de probabilités sur telle ou telle émotion et, finalement, de déterminer l’émotion exprimée par l’utilisateur.

Avec cette brique d’IA, nous voulons montrer les possibilités technologiques qui s’offrent à nous en matière de communication et d’intelligence émotionnelle, communication finalement sous-exploitée dans les stratégies des entreprises à ce jour. Surtout, les retours des visiteurs ont dépassé nos espérances : c’est un défilé enthousiaste, intéressé et impressionné qui s’est déroulé tout au long des trois jours du salon, que ce soit sur les jours Entreprises ou le samedi auprès du grand public. Et si l’on peut penser tout d’abord à des applications très directes dans le retail, pour étudier par exemple la satisfaction client, il s’agit avant tout pour nous d’un premier pas vers le développement d’IA capables de comprendre l’humain et de s’en rapprocher.