project soli google : smartwatch

Google Soli : new sensing technology that uses miniature radar to detect touchless gesture interactions!

Soli is a new sensing technology that uses miniature radar to detect touchless gesture interactions.

https://atap.google.com/soli/

Robot readable world

Playing Pool with a Dual-Armed Robot

via Hacked Gadgets /  Alan Parekh

Thomas Nierhoff   a masters student at Technische Universität München (TUM), used a human-sized mobile robot with dual 7-DOF (degrees of freedom) arms that’s able to manipulate a pool cue similarly to how a human does. A camera above the table tracked the positions of the balls and helped the robot plan its shots, separating each into various difficulty thresholds to help the bot decide which it should take.

 

l’innovation chez Atos Origin

 Les Décideurs de l’Innovation #18 : Avec Marc-Henri Desportes, VP – Atos Origin

Ford et Google veulent aider les automobilistes en les pistant

VIA Futura-Sciences Par Jean-Luc Goudet,  Le 14 mai 2011 à 17h29

Le constructeur automobile américain était présent au dernier show de Google pour montrer une aide à la conduite basée sur les prévisions réalisées grâce à de savants calculs d’une « API » baptisée Google Prediction et – presque – chargée de prédire l’avenir…

« Mon maître vient d’ouvrir ma porte. Il est 7 heures. Nous ne sommes ni un samedi ni un dimanche ni un jour férié. Cela doit être pour aller au travail. Je vais lui afficher tout de suite les conditions de circulation sur mon écran de bord et attendre qu’il me confirme mon intuition. Si j’ai raison, je vais commencer à rouler en utilisant le moteur thermique pour charger mes batteries afin de pouvoir faire les derniers kilomètres en électrique puisque la zone autour de son bureau est interdite aux moteurs à explosion. » Ainsi réfléchira la voiture hybride du futur quand son propriétaire ouvrira la porte, si l’on en croit les idées de Ford.

C’est en effet ce qu’a expliqué le constructeur américain à la dernièreconférence I/O de Google, où ont aussi été présentés les ordinateursconnectés Chromebooks. Pour parvenir à une telle déduction, l’automobile réfléchissante a suivi les habitudes de ses propriétaires, repéré les trajets, noté les horaires et enregistré les conditions ou les impératifs de circulation. L’argument mis en avant suit les canons de la mode : cette complication électronique de la voiture apporterait économie et gain écologique.

Ford ne montre pas ici un vague concept de designeur mais une utilisation d’un service bien réel, Google Prediction. Sous la forme d’une API déjà disponible sur le site de Google Labs pour les programmeurs, ce système, reposant sur des moyens de calculs puissants, offre des possibilités bien au-delà de l’automobile. Il s’adresse aux entreprises proposant des logiciels ou des services informatiques et son travail est d’analyser un historique pour mieux gérer le présent. La page consacrée à Google Prediction développe deux exemples d’utilisation : la détection de spams et la détermination des préférences d’une personne en matière de films. Google Prediction peut ainsi fournir des informations sur les habitudes de l’utilisateur, en indiquant quels types de films il a téléchargés récemment.


Le système proposé par Ford s’appuie sur un enregistrement méthodique des déplacements du véhicule et d’une analyse effectuée en ligne sur les ordinateurs de Google grâce à une API disponible pour les développeurs de logiciels. © Ford

« Humain, je t’observe pour ton bien »

Pour un commerçant en ligne, l’API peut fouiller dans les commentaires pour remonter des statistiques sur les bons échos et les critiques. Elle peut aussi estimer combien tel acheteur est susceptible de dépenser compte tenu de ses derniers achats.

Bref, Google Prediction est d’abord un outil d’analyse des comportements humains qui doit scruter méthodiquement les habitudes d’une personne. Pour le système de Ford, par exemple, la voiture doit patiemment noter grâce au GPS tous les déplacements des propriétaires du véhicule. « Nous savons que, par nature, cette recherche nécessite l’utilisation de données personnelles et de géolocalisation, données que nous nous engageons à protéger pour chacun de nos clients, quel que soit ce que nous en faisons » a tenu à préciser Johannes Kristinsson, architecte systèmes chez Ford. Rappelons au passage que le piratage de l’électronique d’une voiture est désormais un souci des spécialistes de sécurité informatique…

On peut remarquer aussi que Google, avec cette application, investit dans un domaine qui semble aujourd’hui stratégique. On sait en effet que dans les relations avec les ordinateurs et les robots, la capacité à assimiler quelques habitudes est importante pour les humains, qui s’agacent facilement de devoir répéter une commande ou un choix alors que « je fais toujours ça, il devrait le savoir »…

quelques informations concernant Google Prediction API :

The Prediction API enables you to make your smart apps even smarter. The API accesses Google’s machine learning algorithms to analyze your historic data and predict likely future outcomes. Using the Google Prediction API, you can build the following intelligence into your applications:

  • Recommendation systems (demo code)
  • Spam detection (demo code)
  • Customer sentiment analysis (demo code)
  • Upsell opportunity analysis
  • Message routing decisions
  • Diagnostics
  • Document and email classification
  • Suspicious activity identification
  • Churn analysis
  • Language identification
  • And much more…

AIDA 2.0: l’avenir du GPS est en 3D

via Autoplus le Vendredi 06 mai 2011 – 13:17

Le guidage par satellite n’est plus un nouvel accessoire. C’est un standard chez tous les constructeurs. AIDA 2.0 propose une petite vue sur le GPS de demain.

AIDA 2.0: l'avenir du GPS est en 3D
Le GPS a tué la localisation par carte et boussole, n’en déplaise aux grands professionnels de la carte d’Etat-major. Désormais bon marché, les GPS sont aussi complètement intégrés et se gèrent par le bout du doigt. Tactile, à molette, à la voix, il existe de multiples façons de retrouver son chemin via le petit écran au centre de la console de bord. Mieux encore, l’affichage tête haute, équipant certains modèles, permet de ne plus quitter la route des yeux: les indications de directions s’affichent directement sur le pare-brise. A ce sujet… des penseurs du MIT voient plus loin.

AIDA: l’avenir voit plus large, aussi large que le pare-brise

Affective Intelligent Driving Agent pour AIDA. Qui se souvient de ce petit robot intégré à la planche de bord développé par Volkswagen et des étudiants du MIT (Massachusset Institute of Technology). En 2009, ce GPS humanisé voulait devenir votre ami en vous conseillant sur la route à prendre, mais aussi votre conduite. Ça en a fait frémir plus d’un.

Aujourd’hui, arrive AIDA 2.0. Moins humanisée, cette assistance de conduite est beaucoup plus axée sur la cartographie routière que sur la sympathie d’un copilote virtuel. Ici, le GPS n’est plus un écran de 4 pouces, mais prend la moitié du pare-brise avec une vue 3D.

Microsoft Campus Tours – The Microsoft Home

TED : John Underkoffler présente le futur des interfaces utilisateurs.

L’avenir de la réalité virtuelle ? Dans la lunette !

via L’Atelier: Disruptive innovation de Hugo Sedouramane le 11/04/11
Laster Technologies propose une paire de lunettes qui affichent du contenu multimédia personnalisé et contextualisé, directement sur un verre. Cela afin de fournir des modules de formation in situ.
Aider les employés du secteur médical ou de l’industrie à accéder aux informations plus facilement : par exemple dans un entrepôt industriel, pendant une opération de maintenance ou de chirurgie. Telle est la mission de Laster Technologies. La société, incubée par le CNRS, et présente au Laval Virtual, a développé une paire de lunettes reliée à un boîtier multimédia portable, permettant de visualiser du contenu riche, personnalisé et contextualisé. Cela, sur l’un des verres (un dioptre). Le but : permettre de voir du contenu en relation avec son environnement, tout en gardant l’usage de ses mains puisque le dispositif reconnaît voix et mouvements. Selon les responsables du projet, il suffit de chausser la paire de lunettes.

ProjectionUne fois activée, la webcam intégrée pourra détecter des marqueurs dans le monde réel permettant de faire afficher des informations ou du contenu multimédia sur la lunette. Les contenus sont diffusés grâce à un mini écran OLED et un miroir intégrés dans une branche des lunettes. Le verre sur lequel les images apparaissent est transparent et semi-réfléchissant, ce qui permet à l’utilisateur de bénéficier d’une vision sur son environnement réel, et virtuel. Au final, l’individu a devant lui l’équivalent d’un écran de 34 pouces, expliquent ses concepteurs à L’Atelier. De plus, une caméra orientée vers le monde réel est intégrée à la lunette et permet aux programmes – réalisés sur mesure – de reconnaître l’environnement réel, comme des marqueurs matriciels pour évoluer dans un entrepôt, par exemple.

Usages multiples

En plus de pouvoir assister les chirurgiens, agents de maintenance ou logisticiens, cette technologie est déclinable pour diverses applications, comme pour le ski ou des opérations de défense militaire. Il existe d’ailleurs un masque permettant d’avoir une vision plus large et les yeux protégés. Enfin, ce type de vision enrichie pourra améliorer l’interactivité dans les musées, pour par exemple visualiser du contenu actualisé, ou même des pièces de musées absentes du monde réel. A terme, l’intégration du Wi-Fi, de puces GPS ou 3G permettra d’obtenir des informations utiles en temps réel, comme par exemple des messages de son manager.