-
A detecção de portas usará o scanner lidar e o aprendizado de máquina para identificar portas e transmitir informações sobre sua localização, rotulagem e muito mais para usuários cegos ou com baixa visão.
-
As legendas ao vivo transcreverão o que as pessoas nas chamadas e nos vídeos dizem enquanto você usa o telefone.
-
O espelhamento de tela do Apple Watch dará aos usuários do relógio acesso a alguns recursos de acessibilidade disponíveis no iPhone, mas não no relógio.
-
Os usuários poderão definir quanto tempo a Siri espera que você termine de falar antes de dizer algo de volta ou executar uma ação.
-
Gestos de toque adicionados darão aos usuários mais maneiras de controlar o Apple Watch.
-
Você poderá treinar seu iPhone para reconhecer sons importantes, como sua campainha.
-
O aplicativo Livros da Apple oferece novas opções de personalização para tornar o texto mais legível.
O Dia Global de Conscientização sobre Acessibilidade é quinta-feira, então a Apple levou para sua blog da redação esta semana para anunciar vários novos recursos de acessibilidade importantes para o iPhone, Apple Watch, iPad e Mac.
Um dos mais utilizados provavelmente será o Live Captions, que está chegando ao iPhone, Mac e iPad. O recurso mostra legendas com atualização ao vivo e orientadas por IA para fala proveniente de qualquer fonte de áudio no telefone, esteja o usuário “em uma chamada telefônica ou FaceTime, usando um aplicativo de videoconferência ou mídia social, streaming de conteúdo de mídia ou tendo um conversa com alguém próximo a eles.”
O texto (que os usuários podem redimensionar à vontade) aparece na parte superior da tela e acompanha conforme o assunto fala. Além disso, os usuários de Mac poderão digitar respostas e lê-las em voz alta para outras pessoas na chamada. As legendas ao vivo entrarão na versão beta pública em dispositivos compatíveis (“iPhone 11 e posterior, modelos de iPad com A12 Bionic e posterior e Macs com silício Apple”) ainda este ano.
Há também detecção de porta. Infelizmente, ele só funcionará em iPhones e iPads com um sensor lidar (para o iPhone 12 Pro, iPhone 13 Pro ou modelos recentes do iPad Pro), mas parece útil para quem é cego ou tem baixa visão. Ele usa a câmera e os sensores AR do iPhone, em conjunto com o aprendizado de máquina, para identificar portas e dizer aos usuários de forma audível onde a porta está localizada, se está aberta ou fechada, como pode ser aberta e qual escrita ou rotulagem pode ter.
A detecção de portas se juntará à detecção de pessoas e às descrições de imagens em um novo “modo de detecção” destinado a usuários cegos ou com baixa visão no iOS e iPadOS. A postagem no blog da Apple não disse quando esse recurso seria lançado, no entanto.
Outras adições de acessibilidade que a Apple diz que estão chegando incluem 20 novos idiomas de Voice Over, novos gestos de mão no Apple Watch e um recurso que permite que os jogadores recebam ajuda de um “amigo” com outro controlador de jogo sem desconectar o seu próprio. Além disso, há novas personalizações de Siri e Apple Books destinadas a expandir a acessibilidade para pessoas com deficiência, personalizações de reconhecimento de som e espelhamento de tela do Apple Watch no iPhone – o que dá aos usuários do Watch acesso a muitos recursos de acessibilidade disponíveis no iPhone, mas não no relógio.
Os entusiastas da tecnologia costumam lamentar que os smartphones (e a tecnologia pessoal em geral) tenham ficado estagnados, sem muitos novos desenvolvimentos empolgantes. Mas isso não poderia estar mais longe da verdade para muitas pessoas com deficiência. Google, Apple e vários pesquisadores e startups vêm fazendo avanços significativos, trazendo novos e poderosos recursos de acessibilidade para dispositivos móveis.
Listando imagem por Maçã