Hacking gli smart assistants
Una nuova forma di attacco e‘ stata recentemente scoperta dai ricercatori cinesi e pare che sia una forma di attacco semplice.
Poiché i microfoni di assistenza vocale (Alexa, Home di Google / Assistant, Apple Siri) tendono ad avere un grande spettro audio, possono ricevere comandi che siano inauditi alle orecchie umane.
Questo attacco è stato chiamato il “DolphinAttack” (concatenato dall’autore).
Pensate a questo scenario .. entri in un edificio, in una sala conferenze, per discutere della prossima fusione. Senza la tua conoscenza il tuo assistente compone un telefono bruciatore che viene ascoltato da un avversario.
Ci sono molti attacchi possibili e l’impatto è significativo.
Nota: Alcuni assistenti tentano di identificare il discorso per escludere persone che non sono il proprietario, ma ciò non è sempre efficace (chieda a mio figlio che parli con il mio assistente che è sicuro che sia io).
Per saperne di più su DolphinAttack: Comandi vocali non udibili.