Lunettes connectées : nouvel allié des personnes aveugles

Grâce aux lunettes connectées dotées d'intelligence artificielle, les personnes aveugles ou malvoyantes peuvent mieux interagir avec leur environnement sans sortir leur smartphone. Un outil prometteur mais encore à fiabiliser.

• Par
Une femme blonde porte des lunettes connectées.

Par Thomas Urbain

Ce restaurant a-t-il du poisson au menu ? Ce bus va-t-il bien vers chez moi ? Autant de questions pratiques auxquelles les personnes non-voyantes peuvent désormais répondre sans dégainer leur smartphone grâce à la nouvelle génération de lunettes connectées, même si la fiabilité de l'intelligence artificielle (IA) incite à la prudence.

Aucun des leaders émergents de ce marché naissant n'a pourtant conçu de modèle avec cette population en tête mais, dans leur ombre, plusieurs start-up, dont certaines sont présentes cette semaine au grand salon de la technologie CES, à Las Vegas (États-Unis), contribuent à la constitution d'un écosystème dédié.

Des lunettes plus intuitives que les smartphones

« Pour les voyants, les lunettes ne font que leur dire ce qu'ils aperçoivent déjà », souligne Aaron Preece, rédacteur en chef de la revue AccessWorld publiée par la Fondation américaine pour les aveugles (AFB). « Mais pour les non-voyants, (...) c'est utile. » De nombreuses applications sur smartphone sont déjà destinées aux personnes vivant avec une cécité « mais il faut le tenir et s'assurer que la caméra pointe bien dans la bonne direction », poursuit Aaron Preece, lui-même aveugle. « Alors que si c'est sur votre nez, c'est clairement plus intuitif. »

Selon l'Agence internationale pour la prévention de la cécité (IAPB), 43 millions de personnes sont aveugles dans le monde, tandis que 295 millions de plus présentent une déficience visuelle modérée à sévère.

Des modèles plus précis pour une meilleure accessibilité

Les lunettes Meta AI, de modèle Ray-Ban ou Oakley, peuvent décrire, sur demande orale, ce qui se trouve face à l'utilisateur ou contacter, via l'appli indépendante Be My Eyes, un bénévole à même de restituer la scène grâce à la caméra.

La jeune pousse californienne Agiga, dont les lunettes EchoVision ont été élaborées avec la collaboration de personnes aveugles, dont Stevie Wonder parmi ses testeurs, assure que sa représentation orale est plus riche et plus complète que celle des produits existants. L'angle de leur caméra (110°) capte aussi 50 % de plus que les autres « smart glasses », explique Xiaroan Wang, patronne d'Agiga, évitant à l'utilisateur d'« avoir à tourner la tête ». Leur lancement est prévu au premier trimestre 2026, à 599 dollars avec un abonnement payant en plus au service IA, contre un prix de départ à 299 dollars pour les Ray-Ban Meta.

Des collaborations plutôt qu'un modèle unique

Grand ancien du secteur, sur lequel il est présent depuis 2020, le Néerlandais Envision vient, lui aussi, de lancer une nouvelle version, en partenariat avec le spécialiste hongkongais Solos, vendue 699 dollars et assortie d'un an d'abonnement à son logiciel Ally (10 dollars par mois ensuite). Son patron, Karthik Mahadevan, ne croit pas au succès d'un fabricant positionné exclusivement sur le marché des aveugles et malvoyants « car vous ne pouvez pas être abordable et produire pour une niche ». Il préfère s'allier à des industriels pour se concentrer sur le logiciel, utilisable par plusieurs marques de lunettes, et voit d'un œil favorable l'arrivée prochaine de Google, Samsung ou Lenovo.

Un bracelet qui décrypte les émotions

Les progrès de l'IA ouvrent chaque jour un peu plus le champ des possibles pour les publics dont l'acuité visuelle est faible ou nulle. La toute jeune entreprise HapWare vient, par exemple, de mettre au point le bracelet haptique Aleye, équipé d'un logiciel qui décrypte, en temps réel, l'attitude et l'humeur de votre interlocuteur grâce aux lunettes connectées puis exerce sur le bras une pression spécifique à une émotion. « Une part importante de la communication est non verbale », avance Jack Walters, directeur général d'HapWare, « et pour la communauté des aveugles, c'est inaccessible. » Il conçoit ainsi Aleye comme « une passerelle ».

Décrire l'environnement : l'IA encore perfectible

Les « smart glasses » d'Envision ont une fonctionnalité qui, une fois activée, décrit en continu ce qui entoure l'usager, sans avoir à être sollicitée plusieurs fois. La start-up travaille aussi à un détecteur capable, en temps réel, de signaler spontanément un objet ou une personne qui se présentent. Envision s'appuie sur plusieurs modèles d'IA, dont GPT-5 d'OpenAI, avec des mises à jour régulières pour profiter des dernières avancées. Mais il reconnaît que « ça reste de l'IA et il est possible qu'elle n'ait pas raison tout le temps. »

Entre précaution et bénéfices concrets

« Nous ne recommandons pas aux gens d'utiliser les lunettes comme principale méthode d'orientation », dit l'entrepreneur, car même une faible marge d'erreur « pourrait avoir des conséquences sérieuses quand il s'agit de détecter un obstacle. » Mais, même en écartant ces cas d'usage, « il y en a beaucoup d'autres qui présentent peu de risques » et sont utiles, tempère Aaron Preece. « Ne serait-ce que pour prendre une photo » avec l'aide des lunettes. « Même si ce n'est pas parfait, au moins je sais à peu près à quoi elle ressemblera. »

© Ismagilov de Getty Images / Canva

Partager sur :
  • LinkedIn
  • Facebook
  • Blue sky
  • Twitter
« Tous droits de reproduction et de représentation réservés.© (2026) Agence France-Presse.Toutes les informations reproduites sur cette page sont protégées par des droits de propriété intellectuelle détenus par l'AFP. Par conséquent, aucune de ces informations ne peut être reproduite, modifiée, rediffusée, traduite, exploitée commercialement ou réutilisée de quelque manière que ce soit sans l'accord préalable écrit de l'AFP. L'AFP ne pourra être tenue pour responsable des délais, erreurs, omissions qui ne peuvent être exclus, ni des conséquences des actions ou transactions effectuées sur la base de ces informations ».
Commentaires0 Réagissez à cet article

Thèmes :

Rappel :

  • Merci de bien vouloir éviter les messages diffamatoires, insultants, tendancieux...
  • Pour les questions personnelles générales, prenez contact avec nos assistants
  • Avant d'être affiché, votre message devra être validé via un mail que vous recevrez.