L'AR et l'IA, ou l'extinction des smartphones

L'AR et l'IA, ou l'extinction des smartphones

Ces derniers temps, deux acronymes, IA et AR, reviennent assez régulièrement en tête des articles ou des descriptifs des startups tendances.
Si certains abusent effectivement de ces mots en les employant à toutes les sauces comme des mots-clés à peu près vides de sens mais remplis de potentiel en période de levée de fonds, il n’en reste pas moins que ces deux technologies sont en passe de révolutionner complètement notre rapport au monde en général et à la technologie en particulier.

Un premier pas vers la révolution des interactions

En effet, l’arrivée de la réalité augmentée (AR) ajoute littéralement une dimension de plus aux interactions que nous entretenons quotidiennement avec la technologie. Il est maintenant possible de mettre en contexte l’information dans un environnement spatial particulier, voire de permettre aux utilisateurs d’évoluer à l’intérieur de l’interface d’une application, ou des données d’un site web comme le cours de la bourse, en avançant ou en pivotant au sein de l’environnement virtuellement augmenté.

giphy-downsized-large.gif

Cette redéfinition du rôle de l’utilisateur et des entreprises dans le partage d’information va changer beaucoup de choses, en particulier dans notre manière de consommer et de diffuser ces informations.

Des échanges plus naturels…

Pour les entreprises, cela rend possible une approche plus subtile et plus ludique de leur relation avec leur public. Certaines marques ont déjà bien compris cet état de fait, et ont développé des applications proposant leurs produits tout en adressant intelligemment les questionnements habituels de leurs consommateurs : IKEA répond désormais aux fameux « Mais est-ce que ce fauteuil rentrera chez moi ? » et « Cette couleur-là, à ton avis, ça donnerait quoi sur le canapé du salon ? » via leur application.

Et les potentielles applications de l’AR ne s’arrêtent pas là. On pourra imaginer laisser à ses amis des suggestions relatives au choix d’un menu particulier dans un restaurant, se retrouver plus facilement dans une foule de festivaliers ou encore proposer des promotions et détails sur une marque lors du scan du logo d’une enseigne donnée.

… Et bientôt plus intelligents

C’est précisément ce bouleversement des échanges qui va servir de terreau fertile à l’épanouissement de notre relation à l’IA. Ces nouvelles méthodes d’affichage et d’interactions vont amener une intégration plus fluide des applications de l’IA au quotidien, en augmentant au passage notre rapport à notre réalité.

Grâce à la vision par ordinateur, il est possible d’identifier de plus en plus d’éléments de notre quotidien. Obtenir des informations sur une oeuvre d’art dans un musée, ou simplement trouver le modèle de ces gants qui vous ont tapé dans l’oeil, deviendra aussi naturel que regarder autour de vous, donnant ainsi accès à une quantité incroyable de savoir et d’actions.

Des algorithmes de machine learning seront quant à eux capables de vous indiquer les endroits susceptibles de vous intéresser le plus autour de vous en fonction de vos goûts, estimés en analysant les données générées par des milliards de smartphones et d’expériences en ligne d’utilisateurs similaires à votre profil.

Une évolution nécessaire

D’aucun pourrait dire qu’on assisterait alors à une réduction de la réalité plutôt qu’à une augmentation de celle-ci, en maintenant l’utilisateur dans sa zone de confort et en ne lui présentant que les informations relatives aux sujets qui l’intéressent.

Néanmoins, face à l’augmentation exponentielle des données accessibles, il devient de plus en plus nécessaire d’être aidé dans notre tâche de sélection quotidienne pour continuer à emmagasiner efficacement du savoir sans être noyé dans le flux constant d’informations qui nous entourent.

giphy (3).gif

Sans parler du fait que les IA font très souvent un meilleur travail que l’homme en terme de découverte de nouveaux contenus susceptibles de plaire à un utilisateur lorsqu’elles ont accès à suffisamment de données et qu’elles ne sont pas biaisées par des impératifs commerciaux (suggestions sponsorisées, contrats de partenariats, etc…).

Vers l'extinction des smartphones

De fait, il est vital de bien penser l’intégration visuelle de ces applications tout comme les algorithmes qui les sous-tendent, et les supports potentiels qui nous permettront d’accéder à cette réalité augmentée. Parce que les dérives sont évidemment possibles, comme celles présentées dans le court-métrage Hyper-Reality, il nous faut dès aujourd’hui travailler à la disparition progressive des supports technologiques que nous connaissons.

Dans un futur pas si lointain, ces technologies vont provoquer la fin des smartphones ordinateurs, et autres tablettes.

La synergie des sciences va aller en s’intensifiant, c’est un fait clairement établi. L’IA, l’AR, les BCI (Brain Computer Interfaces) et les NBIC (Nanotechnologies, Biotechnologies, Informatique et sciences Cognitives), pour ne citer que les plus en vogue, vont s’interconnecter de plus en plus, probablement jusqu’à devenir indissociables. Dans un futur pas si lointain, ces technologies vont non seulement provoquer la fin des smartphones ordinateurs, et autres tablettes, mais aussi l’émergence d’usages futuristes encore cantonnés aux rêves transhumanistes.

Que ce soit au niveau des voitures autonomes, des interfaces Homme-Machine, ou de la robotique, l’AR et l’IA ont beaucoup à offrir.

Nous sommes certes à l’aube de cette révolution, mais elle est bel et bien en marche, et nous avons l’intention d’en faire partie !

Pourquoi et comment utiliser ARKit ?

Pourquoi et comment utiliser ARKit ?

ARKit… Nous attendions un peu plus d’informations à ce sujet lors de la Keynote d’Apple, beaucoup plus centrée sur le hardware que sur leur nouveau SDK. Néanmoins, quelques annonces ont été faites, notamment la possibilité de tracker les visages grâce à la caméra frontale TrueDepth du nouvel iPhone X.

En attendant plus d’informations de la part d’Apple sur le sujet, voyons voir ce que nous savons déjà sur ARKit. Comme expliqué dans un précédent article, l’ARKit d’Apple permet de simplifier grandement le développement d’applications iOS en réalité augmentée.

Et c’est une excellente nouvelle pour la démocratisation de l’AR : il suffit de constater le succès du compte Twitter @madewithARKit, dépassant les 5 000 retweets avec l’incrustation d’un portail menant vers une jungle imaginaire.

Les domaines pouvant bénéficier de cette démocratisation sont nombreux, du retail à l’éducation en passant par le service client… Alors comment sauter le pas et vous lancer vous aussi dans l’AR?

Il va vous falloir… Un Mac

Pour développer sur ARKit, il vous faut installer la version 10.13 de macOS, Xcode 9, et surtout, surtout, iOS 11 sur votre iPhone ou votre iPad.

A noter, seuls les appareils dotés des processeurs A9 ou plus sont capables de fonctionner correctement avec les applications développées avec ARKit. Votre application ne pourra donc être disponible que pour les téléphones à partir de l’iPhone 6s, et les iPads de la 5ème génération et au-dessus.

Seuls les téléphones à partir de l’iPhone 6s, et les iPads de la 5ème génération et au-dessus sont compatibles avec ARkit.

Seuls les téléphones à partir de l’iPhone 6s, et les iPads de la 5ème génération et au-dessus sont compatibles avec ARkit.

Une fois toutes ces formalités réglées, il ne vous reste qu’à créer un nouveau projet “Réalité Augmentée” sur Xcode.
Et c’est tout... Ou presque !

Du code, mais pas seulement

Si ARKit est un outil destiné aux développeurs, il nécessite toutefois une réflexion en amont afin de proposer une expérience utilisateur optimale.

Pour aider, Apple a publié des guides pour penser les applications développées avec leur outil. Ce sont certes des astuces basiques, qui nécessitent une réflexion plus poussée pour parvenir à un rendu final vraiment ergonomique, mais c’est un bon début pour comprendre un peu mieux la philosophie derrière l’AR.
En effet, certaines contraintes sont à envisager lors de la création d’une app en AR.

L’AR en est encore à ses débuts, et les utilisateurs n’ont pas nécessairement le réflexe de sortir leur téléphone au moment où votre application leur sera la plus utile, ou même dans un endroit où elle fonctionnera de manière optimale. L’utilisateur pourra décider de l’ouvrir dans le bus, dans son lit tard le soir, ou bien dans une grande pièce blanche, soit autant de conditions franchement défavorables à l’utilisation d’une application AR qui n’a pas été correctement pensée en amont.

Extrait des indications du guide sur les interfaces ARKit d'Apple.

Extrait des indications du guide sur les interfaces ARKit d'Apple.

Il faut donc réfléchir correctement à la manière de guider l’utilisateur sur les conditions optimales et le moment idéal d’utilisation de votre application. Cela peut passer par des alertes, des tutoriels… L’essentiel est de bien comprendre que l’utilisateur doit faire le choix de l’AR, et qu’il faut l’accompagner du mieux possible.

L’incrustation, ou la clé de la vraisemblance

Il faut également considérer la qualité visuelle de votre application : tout l’enjeux de l’AR est de rendre vraisemblable l’intrusion d'éléments virtuels dans un environnement réel. Il est donc très important d’apporter un soin particulier à la direction graphique de votre produit.

Plusieurs techniques sont envisageables pour arriver à un degré de réalisme confondant, comme la combinaison gagnante modélisation 3D / Photogrammétrie évoquée dans un autre article. Mais il peut aussi être intéressant de prendre le contre-pied du réalisme, et de prendre le parti de jouer sur le décalage entre réalité et imagination, comme dans cette démonstration.

Notre expertise

Que vous vouliez permettre à vos clients d’essayer vos bijoux en temps réel depuis chez eux ou que vous souhaitiez aider des étudiants à mieux comprendre les implications des liaisons chimiques entre les atomes, ARKit vous permet d’ajouter encore plus de proximité entre vous et vos utilisateurs.

Chez XXII, notre expertise AR nous amène une réflexion à 360° autour des projets de nos clients et nous permet de tirer le meilleur des opportunités offertes par ARKit. Ayant eu accès à la version démo en avant première, nous avons déjà pu tester, développer et maîtriser ARKit.

De l’UX Design à la modélisation 3D en passant par la direction artistique, nous apportons notre savoir-faire à chaque étape !

En bonus, une vidéo de notre responsable Design pour mieux comprendre le monde de l'AR :

Spécial IFA : Les News Tech - Semaine du 04/09/2017 au 10/09/2017

Spécial IFA : Les News Tech - Semaine du 04/09/2017 au 10/09/2017

Les voici les voilà, les news tech de la semaine, par XXII !

SPECIAL IFA

E8_Black_MarbleBackground_2.jpg

Beoplay adopte la tendance des écouteurs sans fils avec son dernier modèle.

https://www.beoplay.com/landingpages/beoplaye8

 
LG-V30-TopArt.jpg

Le dernier téléphone phare de LG mise tout sur la caméra !

https://www.wired.com/story/lgs-v30-more-camera-than-youve-ever-seen-in-a-phone/

 
ibis-blog-image-update.png
 
casques-de-realite-virtuelle-windows-mixed-reality.jpg
 
01-gear-sport-dual.jpg

Les technologies portables se portent bien chez Samsung : découvrez la dernière édition de la Gear S3, la Gear Sport.

https://techcrunch.com/2017/08/30/samsungs-fitness-focused-gear-sport-smartwatch-is-a-smaller-alternative-to-the-giant-gear-s3/ 

 
XYZprinting-TA.jpg

Imprimer votre figurine préférée en 3D et en couleur ? C'est maintenant possible avec la dernière imprimante XYZprinting !

https://www.wired.com/story/xyzprinting-da-vinci-color/

 

 

REALITE VIRTUELLE

HTC-Vive-HMD.jpg

La VR sans les fils : les pré-commandes du TP-Cast sont maintenant disponibles en Europe !

https://www.roadtovr.com/pre-orders-tpcast-wireless-vr-add-now-open-europe/

 

 

billetto-editorial-334676-960x540.jpg

Le premier incubateur VR français va ouvrir ses portes à Paris !

http://bit.ly/2j5ye86

 

 

INTELLIGENCE ARTIFICIELLE

alibaba-smile-pay.jpg

Payer avec un sourire? C’est désormais possible en Chine : KFC propose de tester la dernière trouvaille d’Alibaba !

https://techcrunch.com/2017/09/03/alibaba-debuts-smile-to-pay/

 
watson-ibm.jpeg

Le MIT vient d’annoncer une collaboration long-terme autour de Watson, le bébé d’IBM.

https://www.engadget.com/2017/09/07/ibm-watson-ai-lab-mit/

 
google-camera-street-view.jpg

Ces nouvelles caméras Google pourraient un jour aider votre voiture autonome à se diriger, aussi imprécises soient vos instructions !

https://www.wired.com/story/googles-new-street-view-cameras-will-help-algorithms-index-the-real-world/

 

SCIENCES

fly-perovskite.jpg

Des yeux de mouches aux panneaux solaires il n’y a qu’un pas !

http://news.stanford.edu/2017/08/31/new-solar-cell-inspired-insect-eyes/

 
flip-flop-quantum.jpeg

Ces Australiens pourraient bien avoir trouvé un moyen de casser les prix de production d’ordinateurs quantiques...

https://www.reuters.com/article/us-australia-computing-quantum/australia-researchers-say-find-new-way-to-build-quantum-computers-idUSKCN1BH13X

 
solar-algortihm-blackout.jpeg

Ce nouvel algorithme permettrait à vos panneaux solaires d’alimenter le quartier en énergie vos voisins lors de pannes de courant.

https://www.engadget.com/2017/09/06/your-solar-panels-could-power-the-neighborhood-during-a-blackout/

 

TRANSPORTS

01-id_buzz_concept_6735.jpg
 
Jaguar-AI-Sayer-steering-wheel-849824.jpg

Le futur du volant automobile est là : dites bonjour à Sayer, le volant intelligent de Jaguar.

https://www.cnet.com/roadshow/news/jaguar-land-rover-reveals-steering-wheel-right-out-of-tron/

 
audiev.jpeg

Plutôt rétro ou plutôt futuriste? Jaguar vous laisse choisir avec ses derniers modèles de véhicules électriques.

https://www.engadget.com/2017/09/07/all-jaguars-will-have-electric-drivetrains-in-2020/

 
david-cohen-249124.jpg

Roulement de tambour : les US vont bientôt publier leur recommandations à propos des voitures autonomes !

https://www.engadget.com/2017/09/06/reuters-self-driving-car-guidelines-reveal/

 
flying-lilium-car.jpg

ARCore et ARKit : Les coulisses de l'AR

ARCore et ARKit : Les coulisses de l'AR

Ces derniers mois ont été riches en émotions dans le “petit” monde de la réalité augmentée. Entre les dépôts de brevets de Facebook et Magic Leap pour des lunettes AR, l’annonce d’Apple sur la sortie d’ARKit en Juin, et l’annonce d’ARCore il y a quelques jours par Google, on peut se sentir facilement perdu.

En effet, si les vidéos utilisant les tout derniers SDK (software development kit) d’Apple et Google sont absolument bluffantes, les technologies qui sont derrière sont finalement utilisées depuis un bon moment dans le milieu de l’AR.

Alors pourquoi les dernières annonces des deux géants américains impressionnent autant ? Petit tour à l’intérieur des coulisses de l’AR.

couvarkitcoulisse.png

Se situer dans l’espace

A la base de bien des applications AR se trouve une problématique de vision par ordinateur appelée SLAM (Simultaneous Localisation And Mapping). Lorsqu’un système est dit “SLAM”, il est capable d’évoluer à l’intérieur d’un environnement inconnu tout en sachant se positionner au sein de celui-ci. Grâce à des images de son entourage proche traitées comme des nuages de points, le système peut analyser son environnement sous forme de différents plans plus ou moins proches ou inclinés. C’est, entre autre, cette « compréhension » de la configuration des scènes visualisées qui permet de déterminer quels sont les espaces « libres » pour l’intégration d’éléments animés ou non dans le réel via des appareils comme votre smartphone ou votre tablette.

Extrait de la présentation d'ARKit par Apple.

Extrait de la présentation d'ARKit par Apple.

Retranscrire la 3D

Pour arriver à donner la notion de 3D à un élément en AR, deux possibilités majeures s’offrent à vous : le VIO ou l’utilisation de l’IMU de votre téléphone.

Le VIO (Visual Inertial Odometry) permet d’estimer à la fois la position et l’orientation d’un système dans un repère en 3 dimensions en se basant sur des informations visuelles en temps réel.

Les instruments de mesure de votre téléphone lui permettent de vous positionner dans l'espace (Photo : Robert Penaloza)

Les instruments de mesure de votre téléphone lui permettent de vous positionner dans l'espace (Photo : Robert Penaloza)

Les mesures effectuées par le système inertiel de votre téléphone (le gyroscope,  l’accéléromètre, et la boussole), ou Inertial Measurement Unit, permettent également d’obtenir des indications sur la position de celui-ci dans l’espace.

Ainsi, un téléphone, même sans être muni de caméra spéciale comme la caméra infrarouge intégrée au téléphone Tango, est capable de déterminer la position de l’appareil dans son environnement réel et virtuel et de retransmettre en conséquence l’orientation correcte de l’image projetée en AR.

L’illusion du réel

Rien de bien nouveau sous le soleil donc. Là où nos deux géants « révolutionnent » le monde de l’AR avec leurs SDK, c’est dans le calcul des erreurs liées à ces technologies et la gestion des textures et des lumières, et ce sur des supports n’étant pas initialement pensés pour de l’AR.

En effet, les techniques présentées précédemment sont très sensibles aux erreurs. Les mesures visuelles et optiques sont effectuées à la même cadence que le rafraîchissement de la caméra, accumulant les erreurs avec la distance parcourue et la durée d’utilisation. Réussir à fournir des mesures dont le facteur d’erreur est suffisamment faible pour ne pas affecter la qualité de l’intégration d’éléments en AR est un réel progrès. Cette précision permet de mieux gérer l’incrustation d'éléments virtuels dans notre environnement, d’effectuer des mesures comme dans cette démonstration célèbre d’application faite avec ARKit. La gestion des jeux de lumières est également meilleure, ce qui donne une illusion de réel encore plus forte.

L'intégration d'éléments virtuels dans des environnements réels est de plus en plus réaliste. (Démonstration d'ARCore)

L'intégration d'éléments virtuels dans des environnements réels est de plus en plus réaliste. (Démonstration d'ARCore)

Une nouvelle ère pour l’AR

L’exploitation des précédents outils et techniques a récemment donné des résultats assez fous. Néanmoins, ces performances nécessitent des bases matérielles solides, et une puissance de calcul non négligeable. Jusqu’à présent, les outils de création et de visualisation de contenu AR étaient tributaires de matériel dédié, comme l’Hololens, ou encore le Tango. La problématique de la présence de traqueur ou soumis à des contraintes techniques comme l’installation de marqueur visuel dans l’environnement, comme c’est le cas avec le SDK de Qualcomm Vuforia, qui nécessite le réglage de traqueur sur une scène pour pouvoir intégrer des objets virtuels dans le réel.
Hormis Snapchat, qui a réussi à rendre l’AR accessible à tous via des appareils déjà bien répandus auprès du grand public, l’AR restait cantonnée à une utilisation très restreinte.

Ces derniers mois, le calendrier des annonces de SDK démocratisant le développement d’applications AR s’est accéléré. Facebook a discrètement lancé la tendance en Avril 2017 durant la F8, avec son annonce d’AR Studio, une plateforme (pas encore ouverte aux développeurs à ce jour) similaire à l’ARCore et l’ARKit. Mais c’est finalement la sortie d’ARKit en Juin 2017 qui a fait le plus de bruit, suite au rachat en 2015 de Metaio par Apple, startup allemande leader de l’AR et concurrent direct de Vuforia.
Toutes ces nouveautés, remarquées ou non, permettent d’inaugurer une nouvelle ère pour l’AR. De plus en plus de téléphones non-spécialisés vont pouvoir supporter des applications en AR, qui vont ensuite être utilisées un peu partout sans avoir à définir de marqueurs spécifiques en amont.

Si le parc des téléphones compatibles avec ces technologies reste encore assez élitiste, tout cela augure tout de même un beau futur pour le monde de l’AR.

Les News Tech - Semaine du 28/08/2017 au 01/09/2017

Les News Tech - Semaine du 28/08/2017 au 01/09/2017

Les voici les voilà, les news tech de la semaine, par XXII !

REALITE AUGMENTEE

ARCore.jpg
 
brevet-lunettes-ar-magic-leap-750x500.jpg

Magic Leap dépose un brevet de lunettes AR au design pour le moins… surprenant !

https://www.engadget.com/2017/08/30/magic-leap-rumored-ar-glasses-revealed-in-patent/

 

REALITE VIRTUELLE

windows-mixed-reality-apps.jpg

A l’occasion du prochain lancement de leur casque VR Windows, Microsoft commence à dévoiler les applications compatibles avec les nouveaux casques Acer, Dell, HP et Lenovo.

https://www.roadtovr.com/heres-67-apps-companies-planning-support-windows-vr-headsets/

 

 

acer-vr-headset-mixed-reality-13.jpg

Vous aimeriez tester la VR sur votre PC, mais vous n’êtes pas sûr qu’il tienne le coup? Faites le test Microsoft pour voir si votre machine est prête à faire tourner la plateforme de « réalité mixée » sur Windows !

https://www.roadtovr.com/windows-mixed-reality-minimum-requirements-spec-check-pc-app/

 

 
windows-mixed-reality.jpg

Microsoft est décidément lancé sur la VR : deux gammes de PCs sont à venir pour offrir de meilleures performances aux amateurs de VR à partir de $500.

https://www.roadtovr.com/mixed-reality-ultra-pcs-will-run-windows-vr-headsets-higher-framerates-better-graphics/

 
sensichelmet.png

Hygiénique et haute définition : deux caractéristiques clés du nouveau casque Sensic, bientôt disponible dans certaines salles d’arcades et quelques parcs à thèmes !

https://www.roadtovr.com/sensics-releases-high-resolution-vr-headset-built-specially-arcades-theme-parks/

 

INTELLIGENCE ARTIFICIELLE

quickdraw.jpg

Si vous avez déjà joué à Quick, Draw!, vos dessins vont aider des IA dans le monde entier à reconnaître des représentations approximatives de pizzas : Google met à disposition sa banque de données de croquis pour les développeurs et les chercheurs en IA !

https://research.googleblog.com/2017/08/exploring-and-visualizing-open-global.html

 
cortanaalexa.png

Alexa et Cortana vont s’entendre de mieux en mieux : Microsoft et Amazon désormais travaillent ensemble pour une meilleure coopération entre les deux IA.

https://www.engadget.com/2017/08/30/alexa-and-cortana-integration/

 
JBL-LINK-series-main.jpg

IFA 2017 : la grande famille des Smart Assistants s’agrandit encore ! Sony, Harman, JBL et d’autres présentent leurs enceintes intelligentes.

https://techcrunch.com/2017/08/31/alexa-and-google-assistant-homepod-competitors-are-coming-from-sony-harman-and-more/

 

TECH

intel-w-xeon-processors-2017-08-29-02.jpg

Intel dévoile le processeur Xeon Série W… Sera-t-il disponible avec le nouvel iMac Pro?

https://www.engadget.com/2017/08/29/intel-18-core-xeon-w-cpu/

 

SCIENCES

carbon-nano-tube.jpg

Un autre exemple des propriétés extraordinaires du carbone : ces micro-tubes pourraient bien un jour transformer de l’eau de mer en eau potable!

https://www.theverge.com/2017/8/24/16189762/drinkable-seawater-carbon-nanotubes-water-filters-aquaporins

 
0827_hyperloop-8272156.jpg

Record de vitesse pour l’Hyperloop, avec un pic à plus de 300km/h… pas encore aussi rapide que le TGV!

https://www.engadget.com/2017/08/27/hyperloop-pod-competition-winner-hits-200-mph/

 
hashtag-majorana.jpg

Un Hashtag quantique pourrait aider l’existence d’une particule d’un nouveau genre : la particule Majorana.

 

https://www.engadget.com/2014/10/05/majorana-particle/
https://www.engadget.com/2017/08/26/quantum-hashtags-may-prove-majorana-particle/

 

 

TRANSPORTS

aston-martin-hybrid.jpg

James Bond se met à l'électrique : Aston Martin projette de proposer uniquement des voitures électriques et hybride d'ici 2020.

https://techcrunch.com/2017/08/29/aston-martins-vehicle-lineup-will-be-100-hybrid-by-the-mid-2020s/

 
mini-ev.jpg

Si le nouveau design du dernier modèle Mini dit bien une chose c’est « Electrique » !

https://techcrunch.com/2017/08/30/minis-electric-concept-still-looks-like-a-mini-but-also-screams-ev/

 
smart-vision-eq-fortwo-1.jpg

Pas la peine de chercher un volant dans la smart EQ Fortwo : entièrement électrique, le nouveau modèle de Daimler est également complètement autonome.

https://www.engadget.com/2017/08/23/audi-solar-panels-help-power-future-evs/

Arrêtons de rejeter les responsabilités de l'IA

Arrêtons de rejeter les responsabilités de l'IA

A l’origine de cet article se trouvent deux questions pour l’instant sans réponses : à partir de quel stade peut-on estimer qu’une IA est consciente, et de fait, responsable de ses actes ? Et si cette entité ne peut finalement pas être tenue pour responsable, qui doit l’être ?

Quelque soit la réponse à ces questions, beaucoup de chemin reste à faire. Si l’IA est loin de représenter la menace catastrophique que les médias véhiculent régulièrement, il n’en reste pas moins que la question de l’intégration des IA dans notre quotidien doit être étudiée, notamment au travers d’un cadre juridique.

La majeure partie des répartitions de responsabilités liées à des IA ou des robots passe aujourd’hui par des accords contractuels. Les différents acteurs (concepteurs, constructeurs, propriétaires et usagers) s’entendent autour d’un contrat qui stipule les responsabilités imputables à chacun. Malheureusement, ces contrats protègent rarement le plus grand nombre, et sont plus souvent rédigés dans l’idée de favoriser les entreprises plutôt que les usagers. Or si l’on veut pouvoir intégrer complètement les IA dans nos vies, il faut pouvoir être sûrs de proposer à tous les acteurs des conditions équitables et justes.

Comment réglementer quelque chose que l’on ne peut pas définir?

Un premier pas vers une réglementation équitable de l’IA est… de ne pas essayer de réglementer l’IA en général. En effet, comme nous l’avons expliqué dans un précédent article, la définition même de l’IA est encore sujette à trop de désaccords y compris au sein de la sphère scientifique. Or comment réglementer quelque chose que l’on ne peut pas définir?

Les enjeux varient énormément entre les responsabilités d’une IA pilote de voiture autonome, celles d’un robot médical ou encore d’un jouet pour enfant. Il faudrait donc segmenter les différents domaines d’IA, et définir dans chaque cas des cadres adaptés. Quelques cadres ont déjà commencé à être établi pour certaines applications, notamment pour la régulation des voitures autonomes.
De manière globale, on peut deviner quelques éléments en lisant entre les lignes du régime global de responsabilité actuel. On peut notamment engager la responsabilité de plusieurs acteurs :

  • Celui du concepteur, si le système provoque un dommage provenant d’une erreur d’architecture.

  • Celui du programmeur, si le dommage est causé suite à une erreur de code.

  • Celui du fabricant, si le dommage provient d’un défaut de fabrication.

  • Celui de l’utilisateur, si ce dernier fait un usage non conforme du système.

Les réglementations appliquées par les nations ont également leur importance : elles devraient être pensées, écrites et révisées régulièrement en accord avec les avancées du domaine.

Dans le cas d’IA ayant atteint un certain seuil d’autonomie décisionnelle, qui peuvent interpréter des ordres plus larges et les suivre selon des méthodes qu’elles auront sélectionné et qui leur seront propres, il est entre autres possible de se raccrocher au cadre de responsabilité du fait des animaux. Ce cadre prévoit notamment que le propriétaire de l’animal doit à tout moment être maître de son animal, et peut être tenu responsable des dommages causés par celui-ci.

Malheureusement, les avancées dans le domaine de l’IA sont telles qu’elles risquent de rendre obsolètes les cadres juridiques que l’on peut leur appliquer pour l’instant par analogie. Il devient de plus en plus difficile de contrôler entièrement l’intégralité des processus opérant dans le fonctionnement des IA. Les différents acteurs cités plus haut peuvent aisément se dédouaner de toute responsabilité, étant réellement incapables de prédire exactement les évolutions du système.

Faire face à nos responsabilités

Mais qu’il soit impossible de prédire à coup sûr le comportement d’une IA n’empêche pas les humains qui en ont la charge d’être concernés par ses actes. De la même manière que pour un enfant, il faut pouvoir affecter des tuteurs humains, capable de se charger du système quel que soit son niveau d’autonomie et de conscience. Cela permettrait notamment de responsabiliser l’homme dans ses interactions avec les IA, en imposant une meilleure compréhension des mécanismes qui régissent les différents types d’IA.

Il est temps de faire face à l’évidence : les humains doivent rester responsables du développement des IA.

Il est autant question de responsabilisation au sens moral du terme que matériel : cette responsabilisation de l’homme est d’autant plus importante qu’elle a pour but principal de réparer les éventuels dommage causés. Il est donc absolument nécessaire de trouver un responsable à chaque dommage, et d'éviter au maximum que qui que ce soit puisse s'exonérer de cette responsabilité.

Finalement, la question n’est pas de savoir s’il est nécessaire de créer une personnalité juridique entièrement dédiée à l’ « IA ». De la même manière qu’on ne régule pas l’Informatique dans sa globalité, ou que les ordinateurs sont considérés comme des outils et ne disposent pas de personnalité juridique propre, cela n’a pas de sens de vouloir définir une personnalité juridique pour l’IA dans sa globalité.

Au lieu de ça, chaque individu doit prendre conscience de l’impact de l’IA, car seule l’éducation du plus grand nombre permettra d’aborder sereinement le futur.

Il est temps de faire face à l’évidence : les humains doivent rester responsables du développement des IA.  


 

Les News Tech - Semaine du 21/08/2017 au 25/08/2017

Les News Tech - Semaine du 21/08/2017 au 25/08/2017

Les voici les voilà, les news tech de la semaine, par XXII !

REALITE AUGMENTEE

arglassesfb.jpg

Facebook dévoile quelques détails techniques à propos de leur nouveaux modèle de lunettes AR via le dépôt d’un brevet.

https://www.engadget.com/2017/08/20/facebook-patent-ar-glasses/

 

REALITE VIRTUELLE

HTC-Vive-HMD.jpg

HTC baisse le prix de son casque Vive 200$ pour atteindre $599, le rendant bien plus compétitif vis à vis de l’Oculus Rift et accessible par le commun des mortels.

https://www.engadget.com/2017/08/21/htc-cuts-vive-price-to-599/

 

 

dims.jpeg

Rumeur ! HTC pourrait bien vendre sa branche VR...

https://www.engadget.com/2017/08/24/htc-vive-business-sale-rumor/

 

 
altspacevr.jpg

Le feuilleton Altspace VR continue : la plateforme sociale est toujours en négociation pour sa reprise.

https://venturebeat.com/2017/08/20/altspace-revival-is-deep-in-discussions-for-social-vr-app/

 
intel-8th-generation-core-teaser.jpg

La première vague de la dernière génération de processeur Intel 8th Gen Intel Core va arriver sur le marché en Septembre pour le plus grand bonheur des fans de vidéos et de VR.

https://venturebeat.com/2017/08/21/intel-targets-8th-gen-core-laptop-processors-at-video-editors-and-vr-fans/

 
416039-KOPIN-elf-vr.jpg

Le casque VR le plus léger jamais réalisé ? Voici Elf, le nouveau prototype de Kopin

https://www.roadtovr.com/kopin-prototype-vr-headset-lightning-microdisplay/

 

INTELLIGENCE ARTIFICIELLE

prismatheverge.jpg

Après le succès de ses filtres “dessin”, Prisma se tourne vers le B2B en vendant ses outils de vision par ordinateur à d’autres sociétés tech.

https://www.theverge.com/2017/8/20/16166408/prisma-ai-machine-vision-b2b-pivot

 

TECH

walmartdrone.jpeg

Walmart renchérit face à Amazon et dépose un brevet pour un “ballon dirigeable” qui servirait de base aéroportée pour l'atterrissage et la récupérations de colis par des drones

https://www.engadget.com/2017/08/21/walmart-applies-for-blimp-drone-base-patent/

 
maxresdefault.jpg

Samsung annonce la sortie du Galaxy Note 8, assorti d’un nouveau casque VR dédié… puisque le S8 ne rentrera plus dans les anciens modèle Gear VR !

https://www.theverge.com/2017/8/23/16186426/samsung-note-8-2017-keynote-news-announcements

https://www.theverge.com/circuitbreaker/2017/8/23/16193690/samsung-new-gear-vr-note-8-announced

 

SCIENCES

26175389_e46ee6ee89_o.jpg

Les chercheurs de Stanford University découvrent un moyen de protéger vos données génomiques (à ne pas confondre avec vos données génétiques) lors de recherches de mutations associées à des maladies.

https://www.engadget.com/2017/08/21/researchers-encryption-keep-dna-private/

 
elon-musk-spacex-space-suit-designboom01-1.jpg
 
carbon-yarn-1000-2017-08.jpg

Ces nanotubes de carbone génèrent de l’électricité lorsqu’on les étirent, ce qui en ferait la fibre idéale pour les vêtements intelligents.

https://techcrunch.com/2017/08/24/carbon-nanotube-twistron-yarn-generates-electricity-when-stretched/

 

TRANSPORTS

01-id_buzz_concept_6735.jpg

Les nostalgiques du combi Volkswagen peuvent se réjouir : ID buzz, le mini-van électrique inspiré du combi, est en cours de production pour un lancement prévu en 2022.

http://www.autoexpress.co.uk/volkswagen/id-buzz/98136/vw-id-buzz-microbus-confirmed-for-2022-release

 
05-mercedes-benz-vehicles-vision-mercedes-maybach-6-cabriolet-thumbnail-2880x1220-1.jpg

Envie de rêver un peu ? Découvrez l’élégance rétro de la nouvelle voiture électrique Mercedes, la Maybach 6 !
https://www.forbes.com/sites/nargessbanks/2017/08/22/mercedesmaybach-vision-6/#46ecb98e6ff2

 
audiev.jpeg

Audi passe à l’étape suivante et va utiliser des panneaux solaires pour alimenter ses futurs véhicules électriques.

https://www.engadget.com/2017/08/23/audi-solar-panels-help-power-future-evs/

La charte graphique selon XXII

La charte graphique selon XXII

Nous n’allons pas vous décrire dans cet article comment créer une charte graphique en 4 étapes, ni en 15 questions. Non, chez XXII, nous préférons voir la création dans son ensemble, à travers ce qu’elle apporte plutôt qu’à travers les outils qu’elle utilise! Nous allons donc vous expliquer le processus créatif tel qu’il existe chez nous, en espérant que cela puisse vous aider à mieux cerner l’esprit qui motive la création, et qui sait, vous inspirer également!

Bien choisir son dress-code

La création chez XXII est basée sur l’intuition et le ressenti. De fait, notre manière d’aborder les outils de création graphique comme la charte graphique est toujours tournée vers l’humain au centre de nos activités, et sur les sentiments que l’on veut partager.
Selon le dictionnaire, il s’agit d’un ensemble de codes et de règles qui définissent l’identité graphique d’une entité : institutions, entreprises, associations, mais aussi films, bandes dessinées… C’est un outil essentiel, qui garantit la cohésion de l’image, et permet la transmission rapide et efficace des contraintes techniques liées à la diffusion de l’image de la marque.
Bref, il s’agit d’un dress-code pour votre projet, quel qu’il soit.

Mais la charte graphique permet surtout de se poser des questions essentielles sur la personnalité de l’entreprise, ou encore sa vision.

Le portrait Chinois de XXII

Le portrait Chinois de XXII

Si vous étiez un lieu, lequel seriez-vous?

Dans tout travail de création, il faut que le résultat vous ressemble, autant qu’il vous distingue de vos concurrents auprès de vos cibles. Pour ce faire, il vous faut analyser en profondeur votre structure, ou dans le cas où votre projet serait à l’étape de sa création, vous projeter sur ce que vous voulez véhiculer.
Quelques techniques permettent de cerner la personnalité de la structure, comme le portrait chinois, ou encore les associations d’idées.  

Chez XXII, nous avons demandés à nos collaborateurs de dresser le portrait chinois de l’entreprise, afin de définir une direction graphique en accord avec notre vision. Nous considérons que nos employés, les XXII Makers comme on les appelle ici, sont les mieux placés pour mettre des mots sur ce qu’incarne XXII. Baser ce travail d’analyse et de projection sur le ressenti des personnes en interne a en quelques sortes validé les choix graphiques que nous avions fait dès le départ.

Nous voulions exprimer toute l’étendue de notre diversité sans avoir à faire de compromis à travers les éléments principaux de notre charte, à savoir notre logo, et nos couleurs.

Porter haut ses couleurs

Le choix des couleurs permet d’inspirer une ambiance continue au fil des différents éléments de communication. Si les symboliques peuvent énormément varier d’une culture à l’autre, les couleurs restent des vecteurs d’informations assez universels dont il faut absolument tirer parti. Des dizaines d’ouvrages étudiant les différents niveaux de significations des couleurs existent, et se tenir informé de ces connotations est important. Les couleurs doivent refléter vos choix stratégiques (implantations géographiques, secteur d’activité, etc...) et vos valeurs profondes. Elles sont le premier vecteur de ressenti.

Dans notre cas, c’est finalement le noir et le blanc qui se sont imposés comme des évidences à la suite de notre portrait chinois interne. Ces couleurs traduisent exactement notre état d’esprit : fortement contrastées, elles évoquent à la fois la simplicité, la réunion de toutes les couleurs et notre esprit sans concession, notre culture alternative. Le noir comme le blanc sont des couleurs essentielles et mystérieuses, à la fois anciennes et futuristes.

Logo signature

Qui du logo ou des couleurs est choisi en premier? Les interactions entre les différents éléments sont multiples, et les choix se font généralement conjointement. Toujours est-il que le logo est également un élément essentiel de l’image d’une marque, et nécessite donc un soin tout particulier. Il peut puiser son inspiration dans le nom du projet ou de ses créateurs, comme dans les symboles relatifs aux activités de l’entreprise, etc...

Notre logo signature

Notre logo signature

Le choix des chiffres romains pour notre logo a suivi notre envie d’universalité et de continuité entre passé et futur. Presque une signature, notre logo est simple et transférable très facilement, même à l’écrit dans le corps d’un texte ou d’un article qui n’utilise pas notre typographie. Sa simplicité permet une diffusion très facile quelque soit le panneau de communication choisi.

Les chiffres romains représentent notre ouverture au monde, et de par la nature additive de ce système de décompte, notre caractère inclusif. Quant au chiffre 22 en lui même, il tire son origine du nom donné au groupe de musique formé par nos fondateurs dans leur jeunesse, comme un rappel de nos origines créatives!

Traducteur graphique

S’il n’est pas nécessaire de commencer par ces deux points, les réflexions derrière facilitent généralement le processus de création des autres supports liés au projet. Ces deux éléments, combinés aux influences culturelles qui sont les nôtres, nous ont permis d’établir des guides graphique précis, qui ont ensuite été déclinés en plusieurs applications comme notre site web, ou encore nos autocollants, nos cardboards...

Finalement, établir une charte graphique relève d’un travail de traduction.

Finalement, établir une charte graphique relève d’un travail de traduction. Il s’agit de mettre en image des impressions, des désirs et des objectifs, pour pouvoir transmettre d’un seul regard l’intégralité de l’ADN du projet, des convictions de ses porteurs. Une occasion de se recentrer sur l’identité d’un projet pour mieux le sublimer !

Comment et pourquoi utiliser la photogrammétrie ?

Comment et pourquoi utiliser la photogrammétrie ?

Avec l’arrivée de la réalité virtuelle, les enjeux de développement de contenus suffisamment qualitatifs pour être intégrés dans des applications VR évoluent en même temps que cette technologie. L’augmentation des degrés d’interactions avec les décors et l’importance du concept de présence imposent des rendus de plus en plus réalistes.

Parmi les techniques existantes pour apporter un rendu réaliste et détaillé, la photogrammétrie offre une solution rapide et efficace pour la création de rendu photo-réaliste.

La photogrammétrie permet de créer des modèles numériques (Crédit : Yann De Couessin)

La photogrammétrie permet de créer des modèles numériques (Crédit : Yann De Couessin)

La photogrammétrie est une technique permettant de créer des modèles numériques d’objets, de personnes ou de lieux à partir d’images prises selon des points de vues différents, le but étant de prendre le plus de photos possibles pour reconstituer un maximum de détails. Un logiciel traite ensuite ces images, de façon à trouver des points de concordance entre tous les clichés et à reconstituer en 3D l’objet à modéliser.

De nombreuses applications sont possibles. Utilisée dans l’agriculture pour optimiser les rendements de production ou en archéologie pour mettre à jour des vestiges enfouis dans la végétation, la photogrammétrie permet également de créer des rendus ultra réalistes pour l’industrie du jeu vidéo et les contenus en réalité virtuelle et en réalité augmentée.

En effet, du fait de la gestion de la lumière et des contrastes, la modélisation complète de chaque détail d’un décor peut prendre énormément de temps si l’on désire un rendu photo-réaliste. Si la photogrammétrie ne permet pas de recréer directement des reliefs, elle permet de reconstituer des décors au rendu naturel avec peu de moyens et en un temps record. De nombreux jeux se basent sur cette technique pour procurer au joueur la meilleure expérience possible, comme Star Wars Battlefront II ou encore La Terre du Milieu : L'Ombre de la Guerre pour ne citer que les plus récents.

Le déroulé des opérations est simple : après un repérage complet, les lieux ou les objets à modéliser doivent être pris en photo sous tous les angles, avec le moins de déformations et de variations de luminosité possible. L’utilisation d’un drone peut parfois faciliter la tâche, notamment lors de prises de vue de grands bâtiments ou de statues.
Les photos sont ensuite importées dans un moteur 3D pour traiter les images et les reconstituer en 3D.

Ce procédé implique de pouvoir prendre un certain recul par rapport aux cibles, mais aussi de prendre en compte les matériaux pris en photos, car les surfaces réfléchissantes rendent la recherche de points concordants difficile d’un cliché à l’autre.

Portrait 3D d'un de nos XXII Makers (Crédit : Yann De Couessin)

Portrait 3D d'un de nos XXII Makers (Crédit : Yann De Couessin)

Chez XXII, nous aimons maîtriser l’intégralité de notre chaîne de production, c’est pourquoi nous utilisons la photogrammétrie en complément de la modélisation 3D pour créer des expériences encore plus immersives.

Cette technique a notamment séduit nos clients dans le domaine de l’immobilier, du tourisme ou de la culture et du divertissement : avec des délais réduits, nous sommes capables de créer du contenu en réalité virtuelle ou en 360° pour des opérations de communication, du gaming ou simplement pour du contenu informatif.

Ce que vous avez toujours voulu savoir sur le machine learning

Ce que vous avez toujours voulu savoir sur le machine learning

Comme tout ce qui touche de près ou de loin à l’Intelligence Artificielle, le machine learning a vu sa cote de popularité exploser ces dernières années.
Que ce soit pour vous mettre à la page ou pour comprendre ce que le machine learning peut faire pour vous, voici un petit précis sur ce qui est en passe de devenir la colonne vertébrale des activités digitales de demain.

Qu’est-ce donc que le machine learning ?

Le terme « machine learning » est utilisé depuis les années 1950. Il englobe toutes les méthodes et techniques permettant de trouver des solutions à des problèmes clairement caractérisés, selon des méthodologies bien définies, généralement à partir de bases de données. Pour faire simple, le but de ces algorithmes est généralement de fournir des prédictions ou de trouver des corrélations en se basant sur un historique de données.

Les algorithmes de machine learning « analysent » plus qu’ils n’ « apprennent » comme le ferait un être humain, dans le sens où il n’y a pas de transfert d’apprentissage d’une application ou d’un contexte à un autre. Un système de machine learning apprenant à reconnaître des chats ne pourra pas spontanément se mettre à reconnaître des chiens, et vice versa.
Le machine learning s’apparente à de l’extraction d’informations de structures de données connues, à l’aide d’approches mathématiques, statistiques et/ou probabilistes, ou encore de réseaux de neurones. De fait, le machine learning permet de traiter des sets de millions de données, comme c’est le cas dans les systèmes de reconnaissance vocale ou d’images.
 

Expérience de machine learning utilisant une régression par Samim

Expérience de machine learning utilisant une régression par Samim

Effet d'entraînement et hiérarchie des besoins

Le machine learning arrive à maturité, et ses limitations sont de plus en plus claires.
Parmi elles, l’effet d'entraînement. Etant donné que le bon fonctionnement des algorithmes de machine learning repose sur l’analyse de données historiques « cohérentes », les techniques de machine learning ont tendance à écarter les données exceptionnelles en les assimilant à des issues peu probables et donc inintéressantes.
Dans la grande majorité des cas, cette approche est tout à fait justifiée : les données atypiques sont généralement issues de capteurs dysfonctionnels, d’erreurs de mesure ou de données bruitées, et ne doivent donc pas être prises en compte.

Les “problèmes” peuvent survenir lorsque ces données sont les symptômes de cas de figure exceptionnels qu’il faut réellement repérer et prendre en considération. Lorsque des événements surviennent qui n’ont pas de précédents ou s’apparentent à des comportements aberrants, les systèmes de machine learning peuvent provoquer des réactions en chaîne assez violentes.
Un très bon exemple du phénomène est le Flash Crash de 2010 : à la suite d’un ordre de vente massif mal exécuté, des automates de trading à haute fréquence ont fait perdre 998,52 points à l’indice Dow Jones Industrial Average avant de le faire remonter d’environ 600 points en l’espace de 10 min, créant des variations jamais vues auparavant au New York Stock Exchange.

La valeur des actions Accenture sont passées de 40$ à 0,01$ en l'espace de quelques secondes  (Image : vpro)

La valeur des actions Accenture sont passées de 40$ à 0,01$ en l'espace de quelques secondes  (Image : vpro)

Ce qui nous amène à considérer l’importance du choix des données et de leur structuration dans l’apprentissage des algorithmes de machine learning. Loin d’être complètement autonome, ces systèmes demandent un travail humain en amont dans la sélection des sets de données, comme dans l’ajustement de la prise en compte de ces données et leur suivi. En effet, la conception de ces systèmes implique de réfléchir au type de données utilisées et aux liens entre les données pour pouvoir déterminer quels sont les outils mathématiques les plus appropriés pour les traiter. Ainsi, des données linéaires auront plus d’impact sur des méthodes linéaires, et des sets de données liées dans le temps ne pourront pas être utilisées par les mêmes outils mathématiques que ceux traitant des données indépendantes dans le temps.
Les algorithmes de machine learning nécessitent également beaucoup de maintenance à plusieurs niveaux : en amont, avec par exemple des entraînements réguliers sur des données “fraîches” pour garder un niveau d’exécution optimal, mais aussi en sortie, pour permettre à tous les autres outils informatiques d’utiliser les données produites par les algorithmes.
De fait, le machine learning impose une vraie réflexion dans son intégration au sein des entreprises. Plusieurs prérequis sont à vérifier, comme la masse suffisante de données, leur qualité, et surtout la compréhension complète de leur importance et interactions au sein du système étudié.

Certaines conditions doivent impérativement être vérifiée afin de créer des systèmes de machine learning performants (Schéma : Monica Rogati)

Certaines conditions doivent impérativement être vérifiée afin de créer des systèmes de machine learning performants (Schéma : Monica Rogati)

IA et machine learning

Comme dit en introduction, l’IA et le machine learning sont étroitement liés. Beaucoup de questions se posent donc, la plus répandue étant : qu’est ce que le machine learning par rapport à l’IA, et quelles sont les différences entre ces deux concepts?
Le machine learning est une des briques qui composent l’IA, une sous-discipline spécialisée dans l’apprentissage basé sur une base de données, elle même comprise dans le domaine de recherche assez vaste qu’est l’IA. Les techniques de machine learning (régression linéaires et statistiques, traitement du signal et de l’image, analyse bayésienne, …) sous-tendent les IA d’aujourd’hui, et tous les algorithmes de machine learning peuvent être caractérisés comme des IA.
En réalité, la question de la « différence » entre machine learning et IA n’a pas lieu d’être. A chaque fois qu’elle se pose, c’est en réalité l’expression de notre difficulté à définir l’IA concrètement, là où la définition du machine learning est claire et établie.
Lorsqu’on se demande ce qu’une IA a de plus qu’un système de machine learning, il serait plus juste de parler des problématiques d’autonomie et d’incrémentalité dans l’apprentissage, ce qui dépasse déjà la zone de définition d’un algorithme de machine learning.

Machine learning : nouvelle pierre angulaire de demain ?

Quoi qu’il en soit, les applications sont légions. La maturité du machine learning est telle qu’il est possible de l’adapter à tous types de cible, sur tous types de problématique, quelque soit le secteur.  

Le machine learning s'intégrera progressivement dans toutes nos activités.

Le machine learning s'intégrera progressivement dans toutes nos activités.

Pour les entreprises, il est synonyme d’augmentation de la compétitivité et du rendement, ou encore d’amélioration de la relation client en adaptant les sites aux préférences des utilisateurs, ou via les fameux chatbots, ces applications permettant de répondre aux questions les plus fréquentes des utilisateurs dans un temps record. Pour l’industrie, il peut aider à la prédiction des pannes, ou à l’optimisation des chaînes de production. De la recherche à la production, tous les contextes permettant de rassembler de grands volumes de données et nécessitant le traitement de ces données sont susceptibles d’être fortement impactés voire transformés par le machine learning.
Des données jusque là trop massives peuvent désormais être traduites en terme de cause et d’effet, que ce soit pour trouver des corrélations entre différents facteurs pour aider la médecine en effectuant de meilleurs diagnostics, améliorer les algorithmes de conduite des voitures autonomes ou simplement pour trouver des pistes d’amélioration du taux de fréquentation d’un site web ou d’une boutique physique.
Le bénéfice pour les entreprises est non négligeable. En même temps qu’une accélération de leurs activités, l’analyse des données permet une compréhension plus fine des mécanismes de leur secteur.

Le machine learning deviendra dans 10 ans ce que le web est devenu aujourd’hui : un outil absolument incontournable, qu’il convient de comprendre et de maîtriser le plus tôt possible pour faire face aux prochaines évolutions !

Et si l’hyper-spécialisation des années 2000 dans le domaine du machine learning a permis de créer cet outil si performant, la tendance est maintenant au décloisonnement des disciplines. Le machine learning a pour vocation de se mêler à d’autres techniques pour infuser complètement toutes composantes de notre société et continuer d’innover. Le machine learning deviendra dans 10 ans ce que le web est devenu aujourd’hui : un outil absolument incontournable, qu’il convient de comprendre et de maîtriser le plus tôt possible pour faire face aux prochaines évolutions !

Cinéma et VR

Cinéma et VR

La réalité virtuelle, ou VR pour les intimes, bouscule beaucoup de domaines à mesure qu’elle se développe. Et parmi eux, le cinéma.

Il y a pourtant de grandes différences entre ces deux médias, et s’ils utilisent tous deux l’image comme vecteur principal d’informations, bon nombres d’aspects les séparent.

Historiquement, le cinéma a plus de trente ans d’avance sur la réalité virtuelle. Il a donc pu développer une grammaire propre, avec ses codes liés aux contraintes et aux libertés inhérentes aux techniques utilisées, comme les couleurs et la composition, ou encore le cadrage et le montage.

En ce qui concerne la VR, une grande partie de ces codes sont inutilisables. Plus de notion de cadre, les spectateurs sont libres de regarder où bon leur semble, quitte à rater l’action ; oublié le montage épileptique, sous peine de voir son public tourner de l’oeil. Les scénaristes et les réalisateurs sont faces à de nouvelles problématiques, qui distinguent foncièrement le cinéma de la VR.

Les enjeux du film VR

Au centre de toutes les préoccupations se trouve le concept de présence, cette sensation de se retrouver transporté dans un monde créé de toute pièce, tout en ayant l’impression d’y être réellement. Il regroupe à lui seul les questions de placement du spectateur au sein du film, de son implication et de son accompagnement au long de l’expérience.

Certaines expériences ont montré que le choix de l’angle de vue accessible au spectateur (360°, 180° ou bien 90°), le rythme des changements de point de vue et le positionnement de celui-ci jouent énormément sur le ressenti des spectateurs et leur capacité à mémoriser les détails du film visionné.

Les scénaristes et les réalisateurs sont faces à de nouvelles problématiques, qui distinguent foncièrement le cinéma de la VR.

Trouver l’équilibre entre une bonne orientation du spectateur et un rythme bien maîtrisé pour que son expérience soit la plus qualitative possible n’est déjà pas une mince affaire, et nous n’avons pas encore abordé la question de la place de l’interactivité offerte par la VR dans le scénario. A la différence du cinéma, le spectateur peut se retrouver partie intégrante de l’intrigue. Quelques oeuvres exploitent ce filon, comme Miyubi, ou le spectateur peut “débloquer” des niveaux d’intrigues supplémentaires en fixant des éléments du décor, ou encore Broken Night, où l’histoire évolue en fonction de l’endroit où regarde le spectateur.

 

Broken Night

Broken Night

Mais que les potentiels réalisateurs en herbe se rassurent : il semblerait qu’être observateur soit déjà un travail suffisant pour les spectateurs. La plupart des films du genre doivent même se limiter en terme de temps, pour éviter de fatiguer son audience. La durée moyenne des films en VR est d’environ 10 min ; Miyubi, avec ses 40 min de film, est à ce jour, le plus long film en réalité virtuelle.

Deux domaines finalement bien distincts

Finalement, la question de l’incarnation du futur du cinéma par la VR est hors de propos. L’expérience même du spectateur diffère grandement d’un médium à l’autre ; au même titre que la photographie n’a pas disparu en tant qu’art au profit de la vidéo, le cinéma ne disparaîtra probablement pas au profit de la VR.

On peut toutefois espérer que les deux médias apprennent l’un de l’autre, et que la VR puisse proposer de plus en plus de contenu de qualité.

De l’importance d’accepter et d’avancer avec l’Intelligence Artificielle

De l’importance d’accepter et d’avancer avec l’Intelligence Artificielle

L’Intelligence Artificielle… Comme expliqué dans un précédent post, ce mot est dans toutes les bouches, au cœur de la stratégie d’un grand nombre d’entreprises. Nous-mêmes, chez XXII, en faisons notre cheval de bataille, notre vision, notre pari sur l’avenir.

Et pourtant, c’est un terme qui est mal défini et à cause de cela réveille des craintes enfouies, pour des raisons plus ou moins légitimes.

La principale est liée à l’emploi. Cette peur est-elle justifiée ? Non, mais il y a des préoccupations dont il faut s’occuper dès maintenant.

Photo : Dierk Schaefer

Photo : Dierk Schaefer

En effet, nous ne sommes pas encore prêts à l’automatisation qui arrive. Même si nous ne savons pas tout ce qui se passe, d’un point de vue politique, les bonnes questions ne sont pas posées. Rien n’est entrepris alors que la France et l’Union Européenne sont déjà en retard par rapport à l’exploitation de l’IA. Par ailleurs, nous sommes davantage sur un débat sociétal que politique et on se retrouve dans la situation du serpent qui se mord la queue : la société attend des réponses et des éclaircissements de ses politiques, alors que ceux-ci pratiquent la méthode de l’autruche, ignorent les problématiques fondamentales et entretiennent le retard déjà pris par rapport à d’autres pays.

Nous sommes également dans une évolution logique des technologies. Toutes les avancées scientifiques sont bénéfiques, il ne tient qu’à nous d’en déterminer une utilisation positive pour l’humanité. Il vaut mieux l’accepter, chercher à la comprendre et ne pas chercher à l’éviter. Car lorsque l’on commence à refuser les sciences, on accepte indirectement de ne plus être en phase avec l’innovation et donc moteur économique puisque l’innovation technique et économique ne peut se faire que grâce à l’avancée scientifique. Si l’on reste dans ce refus, on prend alors le risque d’un retrait de notre pays, de notre économie, de notre position d’innovateur pour aller vers une position de consommateur, ce qui revient à la situation d’un pays du tiers-monde en soi.

Toutes les avancées scientifiques sont bénéfiques, il ne tient qu’à nous d’en déterminer une utilisation positive pour l’humanité.

Quelles sont les solutions ? Ne pas attendre des politiques qu’ils nous confortent, nous rassurent, mais plutôt pousser tout le monde à participer au débat : les salariés, les entreprises, les infrastructures, les institutions…. Tout le monde doit se sentir concerné. Il faut arrêter d’espérer des politiciens qu’ils comprennent et prennent des décisions. Il faut comprendre que les politiques ont une vision court terme, les ré-élections, tandis que l’IA a une vision à très long terme. Ce sont principalement les entreprises qui vont rassurer et mener le débat. C’est risqué mais ce sont elles qui vont pouvoir aller vite et faire avancer les choses.

Une autre solution clé, qu’il va falloir mettre en place rapidement, est de changer la formation et l’éducation. Il y a un véritable manque d’éducation sur le sujet de l’IA et de la robotique. C’est un sujet intense et rapide, on pense en savoir beaucoup mais la réalité est que nous sommes encore dans l’ignorance. En revanche, plus la société comprendra et appréhendera tôt les tenants et aboutissants de cette transformation technologique, plus nous pourrons avancer tous ensemble, dans le bon sens.

[...] l’IA va permettre de libérer du temps pour d’autres tâches et va développer de nouveaux métiers dont nous ignorons l’existence aujourd’hui.

Au-delà de cet aspect sociétal, il est important de noter que, certes, l’automatisation va enlever certaines de nos tâches, mais surtout l’IA va permettre de libérer du temps pour d’autres tâches et va développer de nouveaux métiers dont nous ignorons l’existence aujourd’hui. Prenons l’exemple de la révolution digitale dont de nouveaux métiers sont sortis (community managers, directeurs digitaux, etc.). L’IA va devenir ce que les ordinateurs sont devenus dans le monde du travail. Une personne ne sachant pas utiliser un ordinateur aura des difficultés à trouver un emploi, il en sera de même avec l’IA. La majorité voire tous les secteurs et emplois vont devoir s’adapter et utiliser l’IA accompagnatrice.

Dans le fond, la question n’est pas tant de savoir si l’on a peur de l’IA, car la réponse est non. En revanche, oui la société a peur de son application. Mais il est temps d’arrêter les questions, de dépasser cette peur du changement et de la décision, de prendre le risque même s’il nous est imposé et de changer notre approche du travail.

Mais il est temps d’arrêter les questions, de dépasser cette peur du changement et de la décision, de prendre le risque même s’il nous est imposé et de changer notre approche du travail.

Bien comprise et bien appréhendée, l’IA, nous en sommes sûrs, deviendra le complément de l’Homme, son extension…mais pas son remplacement.

 

Où commencer pour comprendre l’IA?

Où commencer pour comprendre l’IA?

Une brève introduction à l’histoire de l’Intelligence Artificielle

Vous avez dit Intelligence Artificielle?

Vous l’aurez compris, l’Intelligence Artificielle, de son acronyme IA, est LE sujet en vogue. Il est partout, tout le monde l’intègre dans ses produits, les "spécialistes" de la question fleurissent un peu partout… Mais personne n’arrive à se mettre d’accord sur une définition commune de l’IA. Ce qui est assez compréhensible quand on considère que la discipline s’attache à décoder et imiter une caractéristique humaine on ne peut plus floue : l’intelligence.
Avec le retour de l’IA sur le devant de la scène, nous nous sommes attelés à (re)définir ce qu’était l’intelligence. Avec le temps, ses définitions sont devenues de moins en moins subjectives : des progrès ont récemment été fait sur la reconnaissance de plusieurs types d’intelligence, avec la popularisation des concepts d’intelligences sociale et émotionnelle entre autres choses.

Mais malgré tous ces efforts, la définition de l’intelligence reste encore abstraite.

Où donc commencer pour comprendre ce qu’est l’IA?

La première mention d’Intelligence Artificielle en tant que nouveau domaine scientifique indépendant remonte à 1956, lors d’un colloque au Dartmouth College, rassemblant entre autres Allen Newell, Herbert Simon, John McCarthy, Marvin Minsky et Arthur Samuel.
À cette époque, Minsky a défini l’IA comme “la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau”.
Plutôt vague et indigeste n’est-ce-pas? Et pourtant, il s’agit de la première définition générale depuis les premiers pas de l’IA, que l’on pourrait situer aux alentours des années 40.

Les débuts de l’IA peuvent être assimilés à l’expansion de l’automatisation.

Les débuts de l’IA peuvent être assimilés à l’expansion de l’automatisation.

En effet, les débuts de l’IA peuvent être assimilés à l’expansion de l’automatisation. Au commencement étaient de simples algorithmes, pensés pour imiter les mouvements humains de manière à automatiser les tâches lourdes et répétitives dans les usines. Puis les années 70 virent arriver les “systèmes experts”. Ces algorithmes étaient destinés à copier le processus de prise de décision humain, en empilant plusieurs couches de règles “si… alors” pour permettre aux machines de résoudre des problèmes complexes. Introduits par le Projet de Programmation Heuristique de Stanford d’Edward Feigenbaum, ces systèmes étaient capables d’interpréter des résultats basés sur des données récupérées par des capteurs, de superviser des projets et de la maintenance de systèmes, ou encore de configurer des systèmes en fonction de contraintes données.

Des hauts et des bas : les trois piliers de l'IA

En parallèle de cette approche mathématique de l’IA, les recherches focalisées sur le fonctionnement du cerveau et les mécanismes d’apprentissage ont également apporté plusieurs avancées scientifiques à l’IA. L’une des plus importantes d’entre elles en terme d’architecture logique est probablement la notion de Réseaux de Neurones Artificiels (RNA).

Les RNA sont des systèmes informatiques inspirés du réseau neuronal humain. (Photo : Hao Wang )

Les RNA sont des systèmes informatiques inspirés du réseau neuronal humain. (Photo : Hao Wang )

Les RNA sont des systèmes informatiques inspirés du réseau neuronal humain. À la différence des algorithmes programmés de manière conventionnelle, qui requièrent une décomposition précise du problème à résoudre en sous-étapes bien découpées et détaillées pour fournir une solution, les RNA peuvent apprendre et s’améliorer, et de fait s’adapter d’eux-même au problème qui leur est présenté.  
Ce concept a d’abord été développé à la fin des années 40 par Donald O. Hebb, un psychologue menant des travaux en neuropsychologie, et la première modélisation d’un RNA a été réalisé au début des années 50. A partir de là, le phénomène s’est répandu et a connu un âge d’or dans les années 60.

Malheureusement, les recherches, que ce soit sur les “systèmes expert” ou sur les RNA, ont dû faire face à une stagnation due aux limitations imposées par la puissance de calcul des ordinateurs de l’époque, alors insuffisantes. L’incapacité des RNA à traiter certaines opérations logiques porta également un coup aux avancées dans le domaine. Du fait de l’échec des algorithmes à résoudre dans des délais raisonnables les problèmes auxquels faisaient quotidiennement face les humains, l’IA fut progressivement décriée, jusqu’à être qualifiée de “jouet” dans le rapport de Lighthill en 1973. Les coupures de budget successives gelèrent les innovations en IA, et la discipline connut son premier “hiver”.

L’IA repose sur trois domaines majeurs : la compréhension du cerveau humain, l’approche technologique de la résolution de problème, et le matériel informatique

Ce qui nous amène à considérer l’un des aspects les plus importants concernant l’IA : l’interconnexion des domaines qui sous-tendent le développement de l’IA. En effet, l’évolution de l’IA repose sur trois piliers : la compréhension du cerveau humain, l’approche technologique de la résolution de problème, et le matériel informatique. Sans avancées conjointes dans ces trois axes, les recherches en IA se heurtent à toutes sortes de limitations.

Dans les années 90, les marchés orientés vers l’IA se sont effondrés après les échecs répétés des algorithmes à gérer et à retranscrire dans son ensemble toute la complexité de notre monde, notamment du fait de la quantité faramineuse d’informations à traiter. L’ “IA” est devenu un gros mot, et un certain nombre de nouvelles disciplines ont vu le jour. Le machine learning, le deep learning, le big data, ou encore le web sémantique se sont développé pour pouvoir soutenir les besoins croissants de la gestion de données et du traitement du signal et de l’image, prenant le relais de l’IA comme autant de sous-disciplines plus spécialisées. Plusieurs avancées ont été faites dans ces domaines isolés, sans que cela ait de réelles conséquences sur la recherche en IA à proprement parler.

Image générée par Deep Dream, programme créé par Google utilisant un réseau neuronal convolutif.

Image générée par Deep Dream, programme créé par Google utilisant un réseau neuronal convolutif.

Le renouveau de l'IA

C’est à partir des années 2000 que le renouveau de l’IA s’est fait ressentir : les disciplines ont de nouveau convergé, soutenues par l’amélioration constante des capacités de calcul des ordinateurs et la révolution des PC. Les travaux en RNA ont produit des résultats significatifs, qui ont même permis de proposer de nouvelles approches neuropsychologiques dans la compréhension du cerveau.

Les algorithmes n’étaient peut-être pas plus intelligents, mais ils étaient plus puissants, et le nombre d’applications a explosé. De là, des sociétés comme Google, Microsoft, Qualcomm, ou Nvidia ont commencé à intégrer complètement l’IA à leurs services.
Un changement de paradigme s’est produit. Au lieu de se focaliser sur les performances brutes, une approche plus humaine a émergé : les émotions et les interactions sont devenues la base de l’évaluation et du design d’une IA. Si quelques années auparavant l’amélioration de 0,01 % de la précision d’un algorithme de reconnaissance faciale était l’objectif à atteindre, les chercheurs tendent maintenant à favoriser la création d’algorithmes capables de reconnaître à coup sûr des visages avec un minimum de paramètres, quelque soit la méthode employée ou sa précision.

Quoi qu’il en soit, l’IA a toujours été source de fantasmes, plus ou moins effrayants. La vieille méfiance diffuse envers le progrès et la technologie a commencé à se cristalliser autour de la peur de voir notre quotidien complètement transformé. Des termes comme celui d’IA forte ou faible ont commencé à émerger pour différencier les IA dotées de conscience, capable de percevoir ou de ressentir des choses (IA forte), des IA plus basiques, incapables de conscience et focalisées sur des problèmes bien définis (IA faible). Des discussions sérieuses à propos de l’impact de l’AI sur nos sociétés ont commencé en 2014-2015, après que plusieurs experts aient écrit une lettre ouverte demandant à mener des études sur l’intégration de l’IA dans nos vies.

... Et donc, qu'est ce que l'IA?

Comment pouvons-nous donc décrire l’IA? Comme nous avons pu le constater, l’IA est un patchwork de disciplines et de paradigmes reposant les uns sur les autres pour partir à la conquête d’un concept que personne n’appréhende de la même manière.
Malgré tout, bien que définir ce qu’est l’IA soit une tâche compliquée, il reste important de poser des bases communes pour approfondir le sujet.
Le consensus actuel définit l’IA comme l’ensemble des méthodes et techniques permettant à un système de trouver des solutions à un problème, sans avoir accès à des processus systématiques de résolution et sans considération pour l’optimisation parfaite de la solution proposée.

En définitive, il n’y a toujours pas de vraie entente sur ce que l’IA est et où la recherche dans ce domaine nous mènera. Il est très complexe de déterminer quelle va être la prochaine phase de cette évolution, en regard des connexions étroites entre les divers domaines de la science. La seule chose certaine, c’est que nous avons encore énormément de choses à comprendre. C’est un peu comme si nous étions revenu à une époque où la pomme de Newton attendait de tomber sur la bonne tête...

En définitive, il n’y a toujours pas de vraie entente sur ce que l’IA est [...]. C’est un peu comme si nous étions revenu à une époque où la pomme de Newton attendait de tomber sur la bonne tête...

Retour sur la Unite Europe 2017

Retour sur la Unite Europe 2017

Unite Europe 2017

Unite Europe 2017

User-friendly : c’était le maître mot de la Unite Europe, l’événement européen de Unity, qui a eu lieu du 27 au 29 Juin dernier à Amsterdam. Que ce soit au travers de plugins permettant de rendre l’utilisation de Unity plus claire et intuitive, ou via le lancement de features accordant plus de libertés aux développeurs, Unity a axé l’édition 2017 sur la simplification de l’expérience utilisateur.

Lors de la keynote de présentation de la version 2017.1 de Unity, deux plugins en particulier ont été mis en avant : Cinemachine et Timeline, ainsi qu’un nouveau compilateur C Sharp.

Avec Cinemachine, Unity propose un plugin offrant une meilleure gestion des caméras, et permettant des mouvements de caméras toujours plus sophistiqués. Quant à Timeline, comme son nom l’indique, il permet de faciliter la gestion de toutes les animations et évènements dans une seule “timeline”, au lieu d’avoir à les gérer individuellement comme c’était le cas jusqu’à présent. A eux deux, Cinemachine et Timeline permettent de réaliser des animations à la manière d’un véritable “réalisateur”, sans avoir à écrire une ligne de code.

Cinemachine

Cinemachine

Parallèlement à cet élan de démocratisation de l’utilisation du moteur, Unity a également amorcé un retour vers des outils plus modulables. Avec son nouveau compilateur C Sharp, Unity donne aux développeurs la possibilité de gérer eux-mêmes l’attribution de certaines tâches aux différents composants de leur machine. En ré-attribuant intelligemment les ressources, les utilisateurs pourront profiter d’applications plus qualitatives, sans contreparties.

Nos équipes ont également été mises à l’honneur durant la Unite, sur le stand “Collaborate”. En partenariat avec Unity, nous utilisons depuis quelques mois déjà l’outil “Collaborate”, une occasion pour nos équipes sur place de proposer un retour d’expérience, et pour Unity de réaliser une vidéo montrant ce que peut donner la puissance de Unity entre de bonnes mains!

XXII mis à l'honneur sur le stand Collaborate, Unite Europe 2017

XXII mis à l'honneur sur le stand Collaborate, Unite Europe 2017

LIER L'ÉMOTION ET LA TECHNOLOGIE : RETOUR SUR LE VIVA TECHNOLOGY 2017

Il y a quelques jours, lors du salon international Vivatech, nous avons présenté la première brique issue de notre laboratoire de R&D en IA : la reconnaissance émotionnelle. Face à une borne interactive généreusement mise à disposition par Clear Channel, nos visiteurs ont pu afficher leur plus belles expressions pour tester notre tracking d’expression. Après s’être enregistrés auprès de notre robot animateur Pepper, le visage des utilisateurs était scanné et l’expression affichée par ceux-ci était associée à une émotion, assortie d’un « mood fact » pour apprendre quelques anecdotes liées à nos émotions. Une photo de l’expérience était ensuite envoyée au visiteur en souvenir. Pour l’occasion, quatre principales émotions étaient identifiées : la joie, la surprise, la tristesse et la colère.

 Plusieurs points clés du visage sont analysés lors de cette expérience, comme le froncement des sourcils, la position de la bouche ou l’écart pupillaire. Nos expressions faciales étant très liées à nos émotions, notre approche géométrique nous permet d’attribuer des pourcentages de probabilités sur telle ou telle émotion et, finalement, de déterminer l’émotion exprimée par l’utilisateur.

Avec cette brique d’IA, nous voulons montrer les possibilités technologiques qui s’offrent à nous en matière de communication et d’intelligence émotionnelle, communication finalement sous-exploitée dans les stratégies des entreprises à ce jour. Surtout, les retours des visiteurs ont dépassé nos espérances : c’est un défilé enthousiaste, intéressé et impressionné qui s’est déroulé tout au long des trois jours du salon, que ce soit sur les jours Entreprises ou le samedi auprès du grand public. Et si l’on peut penser tout d’abord à des applications très directes dans le retail, pour étudier par exemple la satisfaction client, il s’agit avant tout pour nous d’un premier pas vers le développement d’IA capables de comprendre l’humain et de s’en rapprocher.