Parlando di assistenti vocali e privacy è importante essere consapevoli che il problema non sono i dati raccolti né cosa sanno di noi, ma se possiamo veramente essere sicuri che i nostri dati vengano usati rispettando la nostra privacy.
Alexa, Google home, siri sono alcuni degli assistenti vocali più diffusi. Hanno prezzi molto appetibili sul mercato e ci vengono presentati come accessori indispensabili per facilitarci la vita.
Grazie al loro utilizzo possiamo rendere la nostra casa “smart” per esempio centralizzando accensione, spegnimento e regolazione delle luci o regolando temperatura e climatizzazione oppure possiamo delegare a loro attività come scegliere i nostri brani musicali preferiti o sapere che tempo farà domani, ma anche fare acquisti su internet o interagire con i nostri contatti telefonando o mandando mail.
Pochi sanno, tuttavia, che per funzionare questi dispositivi contengono un software che tramite meccanismi di machine learning / deep learning riconosce il linguaggio naturale e sfrutta l’auto-apprendimento per migliorarsi e diventare sempre più preciso in fase di ascolto e quindi fornire risposte sempre più corrette e calibrate sulle informazioni richieste.
Col tempo il servizio tende alla minimizzazione degli errori di riconoscimento ed elaborazione della nostra voce e al contempo è istruito a imparare e memorizzare i nostri interessi e i nostri gusti, ricordando e correlando ciò che nel tempo ci interessa, ciò che gli chiediamo, come lo chiediamo, quanto tempo dedichiamo ad ogni ricerca o argomento, e così via.
E non è tutto. Dietro questi dispositivi ci sono migliaia di persone in tutto il mondo che ascoltano e analizzano le registrazioni vocali effettuate in case ed uffici, pur senza avere (ufficialmente) accesso alle identità delle persone che hanno generato tali contenuti.
Questo scenario pone diversi problemi in tema di privacy: se pensiamo che questi dispositivi sono sempre in uno stato di “passive listening”, cioè sono pronti ad attivarsi non appena si pronuncia (anche per errore) la parolina magica (come “Alexa” o “Hey Google”) ne dobbiamo dedurre che sono come dei microfoni potenzialmente sempre accesi sulla nostra quotidianità.
L’altra evidente area di rischio è la security. Diventando il centro pulsante delle nostre smart home, questi apparecchi possono essere soggetti ad attacchi di malintenzionati che ne prendono possesso (anche senza che noi ce ne accorgiamo) da remoto. Le possibilità che il dispositivo abbia un malfunzionamento, un bug o venga violato esistono, come esistono per ogni strumento informatico collegato in rete.
L’importante è essere consapevoli della importanza delle informazioni che affidiamo ai nostri assistenti vocali, limitandole ove possibile. Evitiamo, ad esempio di abilitare questi dispositivi all’apertura della porta di ingresso o al sistema di allarme della nostra abilitazione. Altrimenti saremmo esposti ad attacchi molto semplici, come quello di chi si posizionasse fuori dalla porta urlando all’assistente “apri la porta di casa” o “disabilita le telecamere” o ancora “disabilita l’allarme”.
Più in generale, seguendo alcuni semplici consigli possiamo tutelare la privacy e la sicurezza. Tanto per cominciare potremmo creare un nuovo account (così da evitare “intrusioni” dell’assistente nel nostro calendario o nella rubrica); avere l’abitudine di cancellare con regolarità le registrazioni dei dati che memorizza (anche a costo di impedire al nostro apparecchio di migliorare la comprensione dei comandi ricevuti); quando non usiamo il dispositivo dovremmo metterlo in muto (anche se al bisogno non risponderà ai comandi); disabilitare la capacità di effettuare acquisti online se non è necessario, o almeno chiedere una password per convalidare l’azione; proteggere l’account di servizio connesso al dispositivo con password forte e autenticazione a due fattori laddove possibile; per la rete di casa usare un network Wi-Fi criptato con encryption WPA2 e non un hotspot aperto; laddove possibile, impostare la propria impronta vocale e chiedere al dispositivo di lavorare solo con la nostra voce; in generale disabilitare tutti i servizi non utilizzati e non impiegare l’assistente vocale per ricordare informazioni sensibili come password e carte di credito.
Avv. Luca Iadecola
Esperto privacy, dpo