Handicap : Apple prépare des fonctions d'accessibilité bluffantes
Apple entend bien simplifier l'utilisation de ses iPhone, iPad et autre Mac par des personnes en situation de handicap en dotant iOS et macOS de nouvelles options d'accessibilité bien pensées… et même bluffantes !
S'il y a bien un domaine où iOS dépasse de beaucoup ce que peut proposer Google sur Android, c'est celui des options d'accessibilité. Il s'agit d'un panel de fonctions destinées à simplifier le maniement de l'iPhone ou de l'iPad pour les personnes présentant des troubles physiques comme les aveugles ou mal-voyants, les sourds ou malentendant, les handicapés moteur ou les des personnes marquées par des troubles cognitifs.
À l'occasion de la Journée mondiale de sensibilisation à l'accessibilité, la firme à la pomme a présenté le 16 mai 2023, en amont de la WWDC (la conférence annuelle des développeurs qui aura lieu le 5 juin prochain) plusieurs avancées sur ce terrain qui devront selon toute vraisemblance intégrer la prochaine mise à jour majeure d'iOS. Certaines ne sont proposées qu'en anglais pour le moment, mais elles devraient logiquement être adaptées à d'autres langues dans un proche avenir. Selon Apple "ces mises à jour s'appuient sur les progrès du matériel et des logiciels, incluent l'apprentissage automatique sur les dispositifs pour garantir la confidentialité des utilisateurs". En d'autres termes, pas question d'utiliser un service cloud pour permettre ces fonctions d'accessibilité, le traitement des données s'effectuant sur l'appareil lui-même.
Handicap : de nouvelles options d'accessibilité sur iPhone et iPad
Plusieurs nouvelles fonctions devraient ainsi faire leur apparition pour aider les personnes en situation de handicap à manipuler l'iPhone et l'iPad encore plus facilement. Parmi celles-ci on trouve l'Assistive Access. Il s'agit ici de redessiner l'interface d'iOS et de certaines applications pour réduire l'ensemble aux fonctions essentielles. L'écran d'accueil pourra ainsi accueillir cinq applications au maximum (Téléphone, messages, Photos et Appareil photo).
Chacune de ces applis sera dépouillées de ses nombreux menus et sous-menus pour en faciliter l'utilisation. C'est le cas, par exemple, de l'appli Appareil Photo (ci-dessous) débarrassée de tous les modes de prise de vue qui peuvent se montrer complexes à manipuler – et doncx sources de mauvaises manœuvres.
Plus spectaculaire, Live Speech qui se destine aux personnes qui risquent de perdre leur voix – à cause, par exemple, d'une maladie du larynx. La fonction leur permettra de créer un modèle de voix synthétique basé sur leur propre voix en se pliant à une session d'enregistrement de 15 minutes. L'appareil utilisera ensuite le principe du machine learning (apprentissage automatique) pour reproduire d'autres mots en conservant la voix de l'utilisateur.
Le but étant par la suite de pouvoir énoncer des textes tapés à l'écran ou d'enregistrer des phrases complètes utilisables dans certaines situations. Live Speech devrait également être disponible sur macOS. Toujours concernant l'audio, iOS devrait intégrer également la fonction Point and speak (viser et parler en français). L'idée est d'aider les malvoyants à déchiffrer plus facilement certaines inscriptions sur des appareils du quotidien comme un four à micro-onde par exemple et de les retranscrire à haute voix. Pour cela, la caméra de l'iPhone sera mise à contribution tout comme le scanner LiDAR de l'appareil et, une fois de plus, le machine learning pour énoncer à voix haute ce qui est indiqué.
D'autres petites fonctions bienvenues devraient renforcer des options déjà existantes. Voice Control, par exemple, qui permet de saisir des textes à la voix, va proposer des suggestions phonétiques afin de choisir le bon mot parmi plusieurs propositions (Caen, qu'en, quand ou quant par exemple). Voice Over de son côté permettra de mieux contrôler la vitesse d'élocution de l'assistant Siri.