Avec cette troisième journée s’achève l’édition 2016 de Google I/O. Pour les 10 ans, Google avait vu les choses en grand. Près de 7000 participants vont rentrer chez eux après avoir pu assister à plus d’une centaine de sessions riches d’enseignements sur le futur vu depuis Mountain View.

A cette profusion de conférences s’ajoutait des CodeLabs, des stands avec des PC à disposition permettant d’apprendre à utiliser les technologies Google, ainsi que des Offices Hour, des entretiens avec des experts Google à la disposition des participants pour répondre aux questions et approfondir des sujets donnés. Google témoigne ainsi d’un soin particulier porté à ses relations avec les communautés de développeurs, facteur clé de succès pour un acteur qui cherche à créer et à faire prospérer des plateformes et des écosystèmes.

Parmi les projets que Google souhaitait mettre en avant, cette année FireBase avait vraiment une place de choix.  Comme nous le précisions lors du premier jour de cette I/O, Firebase est un outil destiné à utiliser les serveurs et les APIs Google et développer un backend. Nous avons pu également assister à des sessions sur les Progressive WebApp, qui sont un ensemble de techniques pour optimiser une application web et la rendre fonctionnelle en offline ou sur des réseaux très lents. Beaucoup de sessions étaient également consacrées à Android, mais surtout à Daydream, renforçant ainsi les velléités de Mountain View en matière de réalité virtuelle.
Symptôme de l’obsession de Google pour l’Intelligence Artificielle, une large part de l’agenda était dédiée au Machine Learning. Google s’est fait évangéliste en détaillant la façon dont il utilise et met à disposition du plus grand nombre ses expérience et ses outils. En effet les modèles d’apprentissage que Google utilise pour ses propres systèmes d’Intelligence Artificielle (Google Photos par exemple) sont open-source et disponibles via le projet TensorFlow.

Pour clôturer ces 3 jours, nous avons eu la chance d’assister à la session de Google ATAP, l’équipe de R&D de Google, qui faisait le point sur  ses derniers projets :
Projet Jacquard
Ce projet de textile intelligent a pris cette année la forme d’une veste conçue en collaboration avec Levi’s. Sur cette veste seule une manche est « tactile » et l’on doit y brancher un connecteur USB. Ce connecteur permet à la fois d’appareiller la veste au téléphone et sert également de batterie au dispositif.

Sleeve+(with+tag)

La veste sera en vente vers l’été 2017 et une beta limitée vers l’automne 2016

Screenshot+2016-05-20+10.19.26-ed

Une application sur le smartphone vient compléter cet ensemble permettant de configurer comment le téléphone doit répondre aux gestures faites sur la veste. Via une API les développeurs auront la possibilité d’ajouter leurs propres fonctionnalités.

Screenshot+2016-05-20+10.19.03-ed


Projet Soli
Nous avons également eu une démonstration du projet Soli et un éclairage sur les difficultés techniques rencontrées. Il s’agit d’un micro-processeur agissant comme un radar détectant des gestures sans même avoir à toucher le device auquel il est connecté.

La démonstration est vraiment très impressionnante : Google a réussi produire une puce suffisamment petite et consommant seulement 0.052w pour rentrer dans une montre.

Google+Project+Soli

Non seulement la puce est capable de reconnaître des gestures mais elle est aussi capable de déterminer la distance entre votre main et le device.

Project+Soli+GIF

Un development kit en mode beta sera bientôt disponible pour les développeurs.
Projet Ara
Le projet Ara est un smartphone modulaire auquel on peut retirer ou ajouter n’importe quel module (caméra, mémoire, capteurs en tous genres, etc.). Cela se fait très simplement puisqu’il n’y a pas même pas besoin d’éteindre le téléphone.

Lors de la démonstration le présentateur a exposé le téléphone et y a ajouté une caméra, puis nous a pris en photo. Il a ensuite utilisé la voix (« Ok Google ») pour demander au téléphone de retirer le module de la caméra.

En plus de ses partenaires déjà fabricants de smartphones (Samsung, Sony, …) Google a annoncé de nouveaux partenariats avec des producteurs de capteurs pour avoir encore plus de modules à offrir.
Google Spotlight Stories
Enfin, nous avons pu voir l’équipe de Google Spotlight Stories qui nous a raconté comment Google organise sa production de films en 360 et les techniques utilisées pour raconter des histoires ou attirer l’attention du spectateur à l’endroit où se passe l’action principale.

Et c’est sur le tout nouveau film, Pearl, dirigé par Patrick Osborne (qui a travaillé sur le film court-métrage Disney  Feast) que se conclut donc cette édition 2016 de la Google I/O :