Com a WWDC 2024 mesmo à porta, a Apple aproveitou a oportunidade para anunciar várias funcionalidades de acessibilidade que irão chegar em breve ao iPhone, iPad e outros dispositivos. A mais apelativa chama-se Eye Tracking e permitirá controlar o smartphone ou tablet utilizando apenas o olhar.
Eye Tracking Chega ao iOS e iPadOS
Naturalmente, esta nova funcionalidade destina-se a utilizadores com deficiências motoras que os impedem de interagir fisicamente com o ecrã do iPhone ou iPad. No entanto, estará disponível nas opções de acessibilidade de ambos os dispositivos para quem a quiser experimentar.
O que é interessante nesta funcionalidade que provavelmente veremos no iOS e iPadOS 18 é que irá incorporar o controlo do olhar de forma nativa. Anteriormente, a Apple permitia interagir com o iPad usando apenas os olhos, mas isso exigia a conexão de um acessório externo.
A empresa de Cupertino explica que a nova funcionalidade Eye Tracking utilizará a câmara frontal do iPhone ou do iPad para detetar e seguir o olhar dos utilizadores. A funcionalidade pode ser ativada e calibrada em segundos e tirará partido da aprendizagem automática executada diretamente a partir dos dispositivos para funcionar.
Embora seja provável que o controlo do olhar chegue ao iOS/iPadOS 18, isso não significa necessariamente que será exclusivo dessas versões do software. É muito provável que também se estenda a versões anteriores dos sistemas operativos, com o suporte final a ser anunciado na WWDC 2024.
Apple mostra como funciona o Eye Tracking
A Apple partilhou um vídeo que mostra como funciona o Eye Tracking. Este mostra uma jovem numa cadeira de rodas a interagir com um iPad utilizando apenas o olhar. A demonstração mostra-a a abrir uma aplicação, a navegar pelas suas diferentes secções e a realizar outras ações como reproduzir um podcast.
Para além do seguimento do olhar, esta funcionalidade do iOS e iPadOS 18 utiliza outra tecnologia já existente no ecossistema Apple. Estamos a falar do Dwell Control, que já está no macOS há algum tempo e permite realizar ações com o rato utilizando os olhos ou o rosto.
Com o Eye Tracking, os utilizadores podem navegar pelos elementos de uma aplicação e utilizar o Dwell para ativar cada elemento, acedendo a funcionalidades adicionais como botões físicos, swipes e outros gestos apenas com os olhos.
E não é a única novidade sobre acessibilidade...
Controlar um iPhone ou iPad com os olhos não será a única funcionalidade de acessibilidade que chegará com o iOS 18. Outra novidade interessante será a adição do Music Haptics, que utilizará o motor de vibração do iPhone para gerar uma experiência musical para pessoas surdas ou com dificuldades auditivas. De acordo com a Apple, esta opção já é compatível com milhões de músicas no Apple Music.
Além disso, o iOS 18 adicionará novos atalhos de som que permitirão aos utilizadores definir expressões personalizadas para que a Siri entenda e execute determinadas ações. E haverá também uma opção para ajudar a reduzir o enjoo ao utilizar o iPhone num veículo em movimento.
A Apple também planeia introduzir mais funcionalidades de acessibilidade nos Apple Vision Pro - legendas em direto, por exemplo - e no Car Play. Este último incluirá opções para controlar aplicações por voz e novas ferramentas para pessoas com daltonismo e deficiências auditivas.
Leia também: