Comme beaucoup, ADN Studio s’intéresse énormément aux intelligences artificielles (IA). Nous avons commencé par faire quelques recherches sur : Comment l’IA impacte le quotidien des designers ?
Puis, au fur et à mesure de notre veille active, de nouveaux sujets nous sont apparues. Tous plus intéressants les uns que les autres. Cependant, l’un d’entre eux nous a particulièrement interpelé : l’accessibilité numérique.
Loin d’imaginer un lien entre ces deux concepts nous nous sommes documentés pour découvrir en quoi l’IA avait un impact sur cette pratique qui devrait être au centre du numérique mondial, l’accessibilité.
Si vous aussi, ce lien vous intrigue, tant mieux car vous allez découvrir tout au long de cette lecture quelques-uns de nos apprentissages et réflexions à ce sujet.
L’IA peut-elle (vraiment) être au service de l’accessibilité numérique
Comme d’habitude, commençons par une petite définition, l’accessibilité numérique c’est : un principe consistant à concevoir des produits numériques, tels que des logiciels, des jeux vidéo, des applications IoT (Internet des objets) et ce, en tenant compte de TOUS les handicaps, qu'ils soient auditifs, visuels, cognitifs ou moteurs.
L’accessibilité engage de nombreuses parties prenantes, du développeur au responsable projet en passant par le designer. Il est donc crucial de la prendre en compte dans tous les projets pour essayer de créer des produits numériques toujours plus équitable.
Heureusement de nombreux outils existes, aussi bien pour les concepteurs, permettant alors de tester l’accessibilité des produits que pour les personnes en situation de handicap, comme par exemple les lecteurs d’écrans, l’utilisation par commandes vocales ou encore la saisie gestuelle.
Malgré tout, de nombreux services numériques sont encore loin de proposer une expérience complètement accessible.
Une question se pose alors : comment l’intelligence artificielle peut combler les faiblesses d’accessibilité des services numériques ?
Avant d’y répondre, le domaine de l’IA est parfois sujet à un peu de “bullshit” (ah bon ?). Il faut distinguer les technologies se basant sur l’intelligence artificielle et les technologies strictement algorithmiques (désoler les développeurs c’est juste pour faciliter le propos).
Les intelligences artificielles sont des forces de calcul se basant sur une capacité unique : le machine learning. Oula doucement, c’est quoi le machine learning ? Et bien c’est la possibilité pour une machine d’apprendre de manière indépendante. Grâce à cela et un ensemble de données gigantesque (merci la big data) les IA deviennent de réelles expertes dans l’exécution de tâches simples.
Maintenant que l’on en sait davantage sur les sujets qui nous intéressent, découvrons quelques exemples d’applications de l’IA permettant de combler les faiblesses de l’accessibilité des services numériques :
- L’évolution de la reconnaissance d’image : Meta a réalisé une avancée significative concernant l’accessibilité de son application Facebook. Tout le monde sait que sur cette application une grande partie est visuelle. Malheureusement cela engendre l’exclusion des personnes ayant des troubles de la vision. Les équipes de l’entreprise ont alors pensé à utiliser une IA pour résoudre ce problème. Comment ? En développant une capacité : le traitement d’images. Grâce à cette seule et unique compétence l’IA possède alors le pouvoir de comprendre l’image et sa valeur ajoutée, pour ensuite la retranscrire en un texte.
- La lecture labiale automatique : pour faire simple c’est l’art de lire sur les lèvres. Nous l’utilisons tous à un moment ou un autre, comme par exemple pour essayer de comprendre ce que dit cet ami à l’autre bout de la table. Pour les personnes malentendantes il s’agit de leur quotidien.
Google DeepMind (entreprise google spécialisé dans l’intelligence artificielle) s’est inspirée de cette méthode de lecture pour un de ces projets IA, l’objectif était alors simple : reconnaître les dialogues dans une vidéo exclusivement par la lecture sur les lèvres. Lors du projet sur un échantillon de 100.000 vidéos, l’équipe de Google DeepMind a atteint une précision de 48% dans la reconnaissance des mots, surpassant considérablement les experts en lecture labiale. Tout ne s’arrête pas là. Comme nous l’avons vu, une IA, aujourd’hui, est généralement spécialisée dans une seule tâche. Mais une question vient alors : et si nous combinions plusieurs IA ?
Imaginons l’utilisation de cette IA de lecture labiale, couplée à une IA de reconnaissance visuelle, avec une petite couche de génération de textes… Nous pourrions alors, sous-titré une vidéo parfaitement (ou presque) sans interventions humaines.
Toutes ces avancées technologiques ouvrent la porte à un numérique plus équitable, du moins sur le papier. Car de telles innovations n’apportent pas particulièrement de gains pour le quotidien des personnes en situation de handicaps. Par exemple si nous reprenons DeepMind et son système de lecture labiale, nous pouvons aisément dire que c’est une belle innovation, cependant, en parallèle, de nombreuses billetteries en ligne reste inaccessible pour de nombreuses personnes.
Une fissure est alors créée, séparant la réalité quotidienne et les innovations permanentes de la sphère numérique. Cette fissure continue de s’agrandir, causé aussi bien par l’IA que par les différentes évolutions des interfaces.
L'Évolution des Interfaces et son Impact sur les Métiers du Web
Hop, hop, hop, doucement pourquoi on parle des évolutions d’interface tout à coup, nous devions parler d’IA et d’accessibilité…
Parce que tout est lié. Les différentes avancées technologiques dont l’IA, pousse les concepteurs à réfléchir des interfaces toujours plus immersives, à tel point que la réalité virtuelle se fait doucement mais surement une place dans notre quotidien. Au début on parlait uniquement de réalité augmentée avec Pokemon Go, mais depuis quelques années de nombreux casques de VR sont disponibles pour le grand public. Bien que leur utilisation se limite encore beaucoup aux personnes passionnées du numérique (geek), nous pouvons imaginer ce que deviendrait ce type d’interface couplé à de l’IA.
Dans les années qui suivent, nous assisterons certainement à un renouvellement complet de la notion d’interface. Pourquoi ?
Très bonne question, à laquelle nous allons répondre par une autre : qu’est-ce que recherche un humain lorsqu’il utilise une interface ? Communiquer.
C’est uniquement pour cela qu’internet a été créé… faire passer une information d’une personne à une autre le plus vite possible. D’ailleurs ce besoin primaire que nous avons se matérialise depuis des millénaires, tout d’abord par le dessin, puis l’écriture, les livres, les téléphones etc.
Tous ces moyens de communication on un point commun : essayer de reproduire au mieux une interaction humaine.
Cette quête pousse logiquement les interfaces vers des modèles de plus en plus réalistes. Par exemple, lorsqu’on demande à chatGPT une information, nous avons davantage tendance à lui parler comme si nous discutions avec un ami sur messenger, n’est-ce pas ? (avec un peu moins d’emojis c’est vrai). Autre exemple, lorsque l’on demande à Google Home, Alexa ou Siri de mettre de la musique, c’est une demande vocale, bien plus naturelle que d’écrire sa demande ou de chercher la musique en scrollant dans sa playlist.
Ces changements qui se font progressivement dans notre quotidien, nous dirigent vers un nouveau paradigme dans la manière dont nous concevons et utilisons les interfaces.
On parlera alors d’expérience numérique “ambiante” caractérisée par des interfaces naturelles favorisant une interaction fluide avec les outils, plutôt que la manipulation traditionnelle de clics et de pointages. Ce virage revêt un intérêt particulier pour les personnes malvoyantes utilisant des lecteurs d'écrans, qui excellent naturellement dans un environnement privilégiant une interaction plus "naturelle".
Comme on aime bien les exemples, en voilà un nouveau. Imaginez une personne en situation de handicap moteur possédant une bonne maîtrise de la parole : elle bénéficierait complètement de pouvoir contrôler son expérience uniquement à la voix.
Et les intelligences artificielles dans tout ça ? Elles seront là, comme aujourd’hui, pour améliorer la qualité des services proposés grâce à la big data. On aura alors des systèmes de reconnaissance vocale, visuel etc avec un taux d’erreur extrêmement faible. Mais ça ne s’arrête pas là, car imaginer le futur est un exercice très intéressant. Imaginons maintenant que nous puissions récupérer des données organiques précises grâce à des implants visuels, cochléaires ou autres. Nous serions alors en capacité d’utiliser ces signaux purement humains pour générer des expériences toujours plus immersives.
Imaginez-vous naviguer sur internet uniquement grâce à vos yeux, ou encore parler à distance à l’aide uniquement de réflexe nerveux. La seule limite sera notre imagination.
Bon, certain d’entre vous rêves d’un monde comme celui-ci, d’autres non, mais ce qui nous intéresse présentement c’est l’avenir de l’accessibilité et des métiers qui gravite autour de la conception numérique.
Réflexion sur l'Avenir de l'Accessibilité et des Métiers du Web
Toutes les évolutions que nous avons mentionnées favorisent en principe l’accessibilité, car elles permettent une augmentation des moyens permettant des expériences numériques équitables. Effectivement en se rapprochant d’interactions plus naturelles, les problématiques liées à l’accessibilité devrait diminuer.
Cependant est-ce que ce schéma logique sera vraiment appliqué ?
Nous avons vu plus haut que de nombreuses innovations voyaient le jour ces dernières années, ce qui n’a pas proportionnellement amélioré l’expérience des personnes en situations de handicaps. Donc il est probable qu’à l’avenir nous suivions cette dynamique, un grand potentiel technologique avec une faible utilisation pour améliorer le quotidien des personnes qui en ont besoin.
En tant que concepteur nous avons notre rôle à jouer. Cela ne veut pas dire, crier sur tous les toits que nous faisons des interfaces accessibles, mais plutôt y penser… Tout le temps. Garder dans un coin de sa tête qu’il faut le projet numérique sur lequel nous travaillons doit être disponible pour tous, chercher les méthodes à appliquer, tester et bien sur améliorer continuellement cette expérience. À ADN Studio, nous sommes loin d’être parfait sur cette thématique, mais on y pense, on essaye.
Après cet instant, à la limite de l’émotion, parlons de l’avenir de nos métiers de concepteur. Car on pourrait s’en inquiéter non ? Surtout quand on voit que des IA sont capables de générer des interfaces en quelques prompts, qui sont, soit dit en passant, pas mal du tout d’un point de vue graphique.
Et bien mes amis respirez. L’IA est une révolution, elle va bouleverser l’intégralité du monde, et ce dans tous les milieux. Par contre elle reste un outil, et comme tous les outils, sans une bonne utilisation, cela ne sert pas à grand-chose… Si, si, je vous assure, laissez votre clé Allen à coté de votre meuble démonté, je peux vous assurer que deux heures après rien ne se sera passé. Donc les IA auront besoin de personnes sachant les utiliser correctement dans un contexte donner.
Conclusion
Bien sûr il faudra se réinventer, évoluer mais il existera toujours une expérience utilisateur, il existera toujours des personnes en charge de la réalisation et toujours d’autres personnes qui s’occuperont d’assurer le bon déroulement du projet.
Donc ne nous inquiétons pas tout de suite et essayons de garder un émerveillement face à ces changements à venir. Ah oui et surtout, restez curieux.