Apple a révélé qu'il travaillait sur l'amélioration de l'accessibilité cognitive, auditive et visuelle de ses produits et a dévoilé de nouvelles fonctionnalités qui devraient aider les personnes handicapées.
Le premier d'entre eux est Live Speech. Cet outil permettrait aux personnes non parlantes de taper au lieu de parler pendant les appels .Ce qui convertira leurs écrits en paroles .
Personal voice ou La voix personnelle créera un modèle de voix synthétisée, tandis que le mode de détection est destiné aux personnes aveugles ou ayant une vision très déficiente.
Les fonctionnalités arriveront plus tard cette année, a révélé Apple sans fournir de calendrier détaillé. Toutes les interfaces seront probablement présentées à la WWDC ( Apple Worldwide Developers Conference) le mois prochain.
L'accès assisté pourra être activé ou désactivé via les paramètres. Il comprend une expérience personnalisée pour Téléphone et FaceTime, sous forme d’une application Appels avec des raccourcis grands et lumineux pour les contacts.
Les messages auront un grand clavier Emoji, les vignettes de la galerie seront plus grandes pour faciliter la prévisualisation des photos.
Le mode de détection interagira avec les objets qui ont des étiquettes de texte et les lira fort lorsqu'il sera pointé. Il sera intégré à l'application Loupe et proposera également la détection de personnes, la détection de porte et des descriptions d'images.
Une fois les fonctionnalités disponibles, les clients sourds ou malentendants pourront utiliser leurs appareils auditifs Made for iPhone directement sur Mac. Les utilisateurs sensibles aux images et animations rapides pourront mettre en pause les gifs dans Messages et Safari. Une autre fonctionnalité intéressante consiste à adapter la vitesse à laquelle Siri parle, avec des options allant de 0,8x à 2x.
J’aime ça :
J’aime chargement…