Quando oggi pensiamo al multitouch pensiamo alle operazioni che Apple ha codificato in iOS e macOS. Per iOS si tratta di gesti a schermo come ruotare con due dita o il “pinch to zoom”, e anche le gesture a più dita (ma molto semplici) per attivare il passaggio da un’app all’altra o richiamare la schermata Home. macOS permette di fare lo stesso agendo sulla trackpad integrata nei MacBook o su una esterna.
Poi Appe ha complicato le cose aggiungendo il Force Touch, ossia la possibilità di rilevare l’intensità della pressione sul display (dell’iPhone 6s, almeno). E anche il Force Feedback della trackpad dei portatili, che dà il feeling di averla premuta anche se in realtà non si è mossa.
Ma il multitouch può andare anche oltre e trasformarsi in uno strumento di lavoro molto più versatile. Ci sta lavorando la statunitense Qeexo, che ha unito al rilevamento dei punti di pressione altri sensori e anche funzioni di intelligenza artificiale.
L’intelligenza artificiale serve per capire, a partire dalla rilevazione della pressione sullo schermo, che cosa effettivamente sta toccando il display e il “significato” della posizione di più dita. Ad esempio la tecnologia FingerSense di Qeexo sa rilevare se stiamo premendo sullo schermo con la punta delle dita, con una nocca o con un’unghia. E attiva funzioni diverse a seconda del tipo di input.
Un ulteriore sviluppo è attivare sullo schermo, ad esempio di un tablet, strumenti virtuali diversi a seconda della distanza delle dita dell’utente. Nella piattaforma sperimentale che la società ha sviluppato si attivano ad esempio una fotocamera virtuale per eseguire screenshot o un metro digitale per misurare le dimensioni degli oggetti a schermo.
Qeexo cede la sua tecnologia, che afferma essere compatibile con qualsiasi smartphone o tablet, in licenza e quindi potrebbe essere usata così com’è da Apple. Oppure a Cupertino potrebbero sviluppare soluzioni analoghe direttamente integrate in iOS.