Apple ha rivelato diverse funzioni che verranno introdotte con iOS 18 e iPadOS 18. Tra queste c’è l’arrivo dell’eye tracking su iPhone e iPad.
Apple continua a essere un campione nell’evoluzione del suo ecosistema. Ciò comporta l’integrazione o il riutilizzo delle tecnologie da un prodotto all’altro. Quindi, quando leggiamo che Apple integrerà il tracciamento oculare su iPhone e iPad, solo pochi mesi dopo il lancio di Apple Vision Pro, è difficile non stabilire la connessione.
Le prime funzioni di iOS 18
Apple in realtà lo ha fatto Ha rivelato diverse nuove funzionalità di accessibilità che verranno introdotte con iOS 18 e iPadOS 18 alla fine dell’anno. Tra questi, il più impressionante sembra essere la capacità di iPhone e iPad di tracciare gli occhi utilizzando l’intelligenza artificiale.
Si tratta di poter navigare nel sistema solo con gli occhi, una funzione pensata per le persone con disabilità fisiche. Apple specifica che questa funzionalità basata sull’intelligenza artificiale viene calcolata solo localmente. Non è necessario alcun hardware aggiuntivo e i dati sullo sguardo non vengono condivisi con l’azienda.
Apple ha anche annunciato Music Haptics, che farà vibrare l’unità dell’iPhone in sincronia con la musica riprodotta per renderla percepibile alle persone con difficoltà uditive.
Utilizzando le scorciatoie vocali sarà possibile programmare il proprio iPhone per eseguire automaticamente azioni tramite comando vocale con Siri.
Infine, una funzione deve consentire all’iPhone di rilevare quando viene utilizzato in un veicolo in movimento. L’obiettivo qui sarà quello di compensare il movimento per evitare di causare cinetosi grazie ai piccoli punti neri in movimento sui bordi dello schermo.
Grandi idee che renderanno l’utilizzo di iPhone e iPad più conveniente per più persone.