Par Thomas Urbain
Ce restaurant a-t-il du poisson au menu ? Ce bus va-t-il bien vers chez moi ? Autant de questions pratiques auxquelles les personnes non-voyantes peuvent désormais répondre sans dégainer leur smartphone grâce à la nouvelle génération de lunettes connectées, même si la fiabilité de l'intelligence artificielle (IA) incite à la prudence.
Aucun des leaders émergents de ce marché naissant n'a pourtant conçu de modèle avec cette population en tête mais, dans leur ombre, plusieurs start-up, dont certaines sont présentes cette semaine au grand salon de la technologie CES, à Las Vegas (États-Unis), contribuent à la constitution d'un écosystème dédié.
Des lunettes plus intuitives que les smartphones
« Pour les voyants, les lunettes ne font que leur dire ce qu'ils aperçoivent déjà », souligne Aaron Preece, rédacteur en chef de la revue AccessWorld publiée par la Fondation américaine pour les aveugles (AFB). « Mais pour les non-voyants, (...) c'est utile. » De nombreuses applications sur smartphone sont déjà destinées aux personnes vivant avec une cécité « mais il faut le tenir et s'assurer que la caméra pointe bien dans la bonne direction », poursuit Aaron Preece, lui-même aveugle. « Alors que si c'est sur votre nez, c'est clairement plus intuitif. »
Selon l'Agence internationale pour la prévention de la cécité (IAPB), 43 millions de personnes sont aveugles dans le monde, tandis que 295 millions de plus présentent une déficience visuelle modérée à sévère.
Des modèles plus précis pour une meilleure accessibilité
Les lunettes Meta AI, de modèle Ray-Ban ou Oakley, peuvent décrire, sur demande orale, ce qui se trouve face à l'utilisateur ou contacter, via l'appli indépendante Be My Eyes, un bénévole à même de restituer la scène grâce à la caméra.
La jeune pousse californienne Agiga, dont les lunettes EchoVision ont été élaborées avec la collaboration de personnes aveugles, dont Stevie Wonder parmi ses testeurs, assure que sa représentation orale est plus riche et plus complète que celle des produits existants. L'angle de leur caméra (110°) capte aussi 50 % de plus que les autres « smart glasses », explique Xiaroan Wang, patronne d'Agiga, évitant à l'utilisateur d'« avoir à tourner la tête ». Leur lancement est prévu au premier trimestre 2026, à 599 dollars avec un abonnement payant en plus au service IA, contre un prix de départ à 299 dollars pour les Ray-Ban Meta.
Des collaborations plutôt qu'un modèle unique
Grand ancien du secteur, sur lequel il est présent depuis 2020, le Néerlandais Envision vient, lui aussi, de lancer une nouvelle version, en partenariat avec le spécialiste hongkongais Solos, vendue 699 dollars et assortie d'un an d'abonnement à son logiciel Ally (10 dollars par mois ensuite). Son patron, Karthik Mahadevan, ne croit pas au succès d'un fabricant positionné exclusivement sur le marché des aveugles et malvoyants « car vous ne pouvez pas être abordable et produire pour une niche ». Il préfère s'allier à des industriels pour se concentrer sur le logiciel, utilisable par plusieurs marques de lunettes, et voit d'un œil favorable l'arrivée prochaine de Google, Samsung ou Lenovo.
Un bracelet qui décrypte les émotions
Les progrès de l'IA ouvrent chaque jour un peu plus le champ des possibles pour les publics dont l'acuité visuelle est faible ou nulle. La toute jeune entreprise HapWare vient, par exemple, de mettre au point le bracelet haptique Aleye, équipé d'un logiciel qui décrypte, en temps réel, l'attitude et l'humeur de votre interlocuteur grâce aux lunettes connectées puis exerce sur le bras une pression spécifique à une émotion. « Une part importante de la communication est non verbale », avance Jack Walters, directeur général d'HapWare, « et pour la communauté des aveugles, c'est inaccessible. » Il conçoit ainsi Aleye comme « une passerelle ».
Décrire l'environnement : l'IA encore perfectible
Les « smart glasses » d'Envision ont une fonctionnalité qui, une fois activée, décrit en continu ce qui entoure l'usager, sans avoir à être sollicitée plusieurs fois. La start-up travaille aussi à un détecteur capable, en temps réel, de signaler spontanément un objet ou une personne qui se présentent. Envision s'appuie sur plusieurs modèles d'IA, dont GPT-5 d'OpenAI, avec des mises à jour régulières pour profiter des dernières avancées. Mais il reconnaît que « ça reste de l'IA et il est possible qu'elle n'ait pas raison tout le temps. »
Entre précaution et bénéfices concrets
« Nous ne recommandons pas aux gens d'utiliser les lunettes comme principale méthode d'orientation », dit l'entrepreneur, car même une faible marge d'erreur « pourrait avoir des conséquences sérieuses quand il s'agit de détecter un obstacle. » Mais, même en écartant ces cas d'usage, « il y en a beaucoup d'autres qui présentent peu de risques » et sont utiles, tempère Aaron Preece. « Ne serait-ce que pour prendre une photo » avec l'aide des lunettes. « Même si ce n'est pas parfait, au moins je sais à peu près à quoi elle ressemblera. »
© Ismagilov de Getty Images / Canva



