Aux Etats-Unis, Alexa -le petit nom de l'intelligence artificielle qui pilote les écrans et les assistants vocaux d'Amazon- saura désormais répondre à la question : "Alexa, qu'est-ce que je tiens dans la main ?" Cette nouvelle compétence a été mise au point avec l'aide d'un Centre pour les aveugles et malvoyants de Santa Cruz, dans le nord de la Californie.
Gain de temps et d'autonomie
"Cela m'aide énormément et me fait gagner beaucoup de temps, je n'ai plus besoin de trouver un autre moyen ou l'aide de quelqu'un pour me permettre d'identifier quelque chose", a souligné Stacie Grijalva, une ingénieure qui a perdu la vue quand elle était déjà adulte et qui a participé au projet. "Que ce soit un client qui fait le tri dans son sac de courses ou quelqu'un qui essaye d'identifier ce qui est sur son comptoir de cuisine, nous voulons les aider", a souligné Sarah Caplener, une des responsables Alexa chez Amazon.
Rendre le numérique accessible
Même ambition en France, où Microsoft signait, il y a quelques mois, un partenariat avec l'association Valentin Haüy pour développer des solutions d'intelligence artificielle au service des personnes déficientes visuelles (article en lien ci-dessous). Leur premier chantier : travailler sur l'adaptation française des applications mobiles, comme « Seein AI », qui peut notamment reconnaître des visages, des produits, des billets, des couleurs, lire des textes, décrire des scènes et détecter la lumière mais est, pour l'heure, seulement disponible en anglais. La version francophone devrait sortir dans les prochains mois.