Soggiorno moderno con dispositivi smart home e rappresentazione astratta di dati digitali
Pubblicato il Marzo 15, 2024

Contrariamente a quanto si pensa, il problema non è che Alexa e Google “ascoltano”, ma che trasformano le nostre conversazioni più intime in un prodotto finanziario venduto a centinaia di aziende.

  • Le vostre parole vengono analizzate per creare profili psicologici dettagliati, non solo per la pubblicità.
  • Il clic su “Accetta tutto” è un contratto che autorizza la vendita sistematica di questi profili.

Raccomandazione: La vera difesa non è solo cancellare le registrazioni, ma comprendere e smantellare attivamente l’architettura della sorveglianza a cui siamo sottoposti, partendo da azioni consapevoli.

State preparando la cena, chiacchierando del più e del meno. L’assistente vocale sul bancone della cucina è silenzioso, una presenza ormai familiare. Ma chi altro sta ascoltando? Questa domanda, un tempo confinata ai thriller di spionaggio, è oggi una realtà domestica. La maggior parte degli articoli si concentra sul fatto che questi dispositivi possano attivarsi per errore e registrare frammenti di conversazioni. Ma questo è solo l’inizio della storia, la punta di un iceberg molto più vasto e inquietante.

La narrazione comune si ferma spesso a consigli pratici su come gestire le impostazioni della privacy, trattando il problema come un bug o un’eccessiva invadenza da correggere. La verità è più scomoda: non è un bug, è una feature fondamentale del modello di business. La vera questione non è *se* siamo ascoltati, ma *perché* le nostre conversazioni, le nostre abitudini e persino le nostre esitazioni hanno un valore economico immenso. Questo non è un semplice problema di privacy violata; è un sistema di mercantilizzazione della nostra vita privata, un processo industriale che estrae valore da ogni dato.

Questo articolo si rifiuta di accettare la narrazione superficiale. Invece di limitarci a fornirvi una lista di istruzioni, il nostro obiettivo è smascherare l’intera catena del valore dei dati: dalla raccolta passiva nel vostro salotto alla creazione di profili psicologici venduti a data broker invisibili. Capiremo come un semplice clic su “Accetta tutto” si trasformi in un contratto che legalizza questa sorveglianza. Solo comprendendo il sistema possiamo sviluppare una forma di resistenza digitale consapevole, trasformandoci da utenti passivi a cittadini che pretendono e difendono i propri diritti digitali.

In questo percorso, analizzeremo il valore delle vostre conversazioni, vi mostreremo come riprendere il controllo tecnico dei vostri dati e discuteremo il dilemma tra comodità e privacy assoluta, fornendo alternative concrete. L’obiettivo è armarvi della conoscenza necessaria per fare scelte informate e proteggere ciò che di più prezioso avete in casa: la vostra intimità.

Perché le vostre conversazioni in cucina valgono oro per gli inserzionisti pubblicitari?

L’idea che le nostre conversazioni vengano usate solo per mostrarci pubblicità di pentole dopo averne parlato è una semplificazione pericolosa. La realtà è un’industria multimiliardaria, quella dei data broker, che non si limita a vendere “dati”, ma vende “profili psicologici”. Ogni parola, ogni pausa, ogni inflessione della voce contribuisce a costruire un avatar digitale di voi stessi: le vostre speranze, le vostre paure, la vostra stabilità finanziaria, le vostre condizioni di salute. Questo profilo è il vero prodotto. Non si tratta più di sapere se vi serve un nuovo frullatore, ma di prevedere la vostra probabilità di divorziare, di sviluppare una dipendenza o di essere un buon candidato per un prestito ad alto rischio.

Questo mercato è tutt’altro che marginale. Le proiezioni indicano che il valore del mercato globale dei data broker raggiungerà quasi i 473,35 miliardi di dollari entro il 2032. Aziende come Acxiom sono un esempio emblematico di questa economia sommersa. Come rivela un’analisi approfondita, Acxiom gestisce database che contengono informazioni su miliardi di consumatori a livello globale. Questi non sono semplici elenchi di contatti, ma dossier dettagliati che includono abitudini di spesa, interessi politici, e persino indicatori di eventi di vita imminenti.

Studio di caso: Acxiom, il gigante invisibile dei dati personali

Acxiom, uno dei più grandi data broker al mondo, è un esempio perfetto della catena del valore dei dati. L’azienda raccoglie informazioni da migliaia di fonti (registri pubblici, sondaggi, cronologia di navigazione e, indirettamente, dati da dispositivi connessi) per creare profili di consumatori incredibilmente dettagliati. Come evidenziato in una tesi del Politecnico di Torino, la società pubblicizza la gestione di circa 15.000 attributi per consumatore. Ciò significa che non sanno solo cosa comprate, ma possono inferire il vostro stile di vita, il vostro livello di reddito e la vostra composizione familiare, vendendo poi queste intuizioni a chiunque sia disposto a pagare, dalle banche ai partiti politici.

La preoccupazione non è infondata. Un report di Microsoft già nel 2019 indicava che il 52% dei consumatori statunitensi era restio a usare assistenti vocali per timori legati alla privacy. Eppure, l’adozione di questi dispositivi continua a crescere. Questo paradosso dimostra una profonda asimmetria informativa: temiamo la sorveglianza, ma non ne comprendiamo la scala industriale e le implicazioni economiche. Le nostre conversazioni valgono oro perché sono la materia prima per l’industria più potente del XXI secolo: quella della previsione del comportamento umano.

Come eliminare le registrazioni dai server di Amazon e Google in modo definitivo?

Riprendere il controllo dei propri dati non è un atto di paranoia, ma un esercizio fondamentale di cittadinanza digitale. I giganti tecnologici, spinti dalle normative come il GDPR, offrono strumenti per visualizzare e cancellare le registrazioni vocali. Tuttavia, queste opzioni sono spesso nascoste in sottomenù complessi, un chiaro esempio di “privacy by obscurity” anziché “privacy by design”. Rendere difficile la gestione dei propri dati è una strategia deliberata per scoraggiare l’utente medio dall’esercitare i propri diritti.

Cancellare la cronologia vocale ha un doppio valore. In primo luogo, riduce la superficie di attacco: meno dati sono conservati sui loro server, meno informazioni personali possono essere esposte in caso di violazione dei dati (data breach) o di accesso governativo. In secondo luogo, è un atto di resistenza attiva. Interrompe, seppur temporaneamente, il flusso di materia prima che alimenta gli algoritmi di profilazione. Sebbene non cancelli i profili già creati, rende più difficile il loro aggiornamento costante e invia un segnale all’azienda: l’utente è consapevole e non passivo.

È cruciale non solo eliminare le registrazioni passate, ma anche automatizzare il processo per il futuro. Impostare la cancellazione automatica ogni 3 mesi (il minimo offerto) è un compromesso ragionevole che limita l’accumulo di dati senza dover intervenire manualmente ogni giorno. Questo non risolve il problema alla radice, ma agisce come un sistema di pulizia costante, limitando i danni nel tempo. A seguire, un piano d’azione concreto per agire subito.

Piano d’azione: riprendere il controllo dei propri dati vocali

  1. Per Amazon Alexa: Apri l’app Alexa, vai su “Impostazioni” e poi “Privacy Alexa”. Seleziona “Gestisci le registrazioni vocali” e scegli l’opzione per eliminare l’intera cronologia. È fondamentale abilitare l’eliminazione tramite comando vocale (“Alexa, elimina tutto quello che ho detto”) per un controllo rapido.
  2. Per Google Assistant: Vai alla pagina “La mia attività” del tuo account Google. Filtra per “Voce e audio” e da lì puoi eliminare le singole registrazioni o l’intera cronologia per data. Cerca le impostazioni di “Gestione attività” per impostare la cancellazione automatica.
  3. Imposta la cancellazione automatica: Sia per Alexa che per Google, trova l’opzione per eliminare automaticamente le registrazioni dopo 3 o 18 mesi. Scegli sempre il periodo più breve disponibile (3 mesi). Questa è la singola azione più importante per una protezione continua.
  4. Verifica le attivazioni accidentali: Mentre sei nel pannello di gestione, scorri le registrazioni. Noterai probabilmente molte attivazioni “fantasma”, registrate senza la parola di attivazione. Questo ti darà la misura di quanto spesso il dispositivo ascolta senza il tuo consenso esplicito.
  5. Revoca i consensi non necessari: Controlla le “skill” (per Alexa) o le “azioni” (per Google) collegate. Spesso, queste app di terze parti richiedono accessi sproporzionati ai tuoi dati. Revoca tutto ciò che non è strettamente indispensabile.

Questo processo non è una soluzione definitiva, ma un passo necessario per ridurre l’esposizione. È un’azione di igiene digitale che dovrebbe diventare un’abitudine, tanto quanto cambiare le password.

Comodità dell’assistente o privacy assoluta: cosa sacrificare per ascoltare musica in salotto?

Il successo degli assistenti vocali si basa su un compromesso implicito che facciamo ogni giorno: scambiamo una fetta della nostra privacy per una dose di comodità. Chiedere di riprodurre una canzone, impostare un timer o sapere che tempo fa senza toccare un dispositivo è innegabilmente pratico. Questa convenienza ha alimentato un mercato in crescita esponenziale. Già nel 2018, il mercato italiano degli assistenti vocali valeva 380 milioni di euro, con una crescita prevista del 50% anno su anno. Questi numeri indicano che, come società, stiamo collettivamente scegliendo la comodità.

Tuttavia, questo non deve essere un gioco a somma zero. Non siamo obbligati a scegliere tra un’esistenza da eremita digitale e la sorveglianza totale. Esistono soluzioni alternative che offrono funzionalità simili o addirittura superiori senza trasformare la nostra casa in un focus group permanente per le multinazionali. L’ostacolo principale all’adozione di queste alternative non è tecnico, ma di marketing e consapevolezza. I giganti tech hanno investito miliardi per rendere i loro ecosistemi chiusi l’opzione predefinita e apparentemente l’unica.

La vera domanda non è “cosa sacrificare?”, ma “esiste un’alternativa che non richieda sacrifici?”. La risposta è sì. Progetti open-source come Mycroft o piattaforme di automazione domestica come Home Assistant permettono di costruire un ecosistema smart in cui i dati rimangono locali, sotto il nostro completo controllo. Queste soluzioni richiedono un investimento iniziale di tempo maggiore rispetto all’acquisto di un dispositivo plug-and-play, ma il ritorno in termini di sovranità digitale è incalcolabile. Scegliere queste vie significa passare da consumatori di tecnologia a proprietari della propria infrastruttura digitale domestica.

Il seguente quadro comparativo esplora alcune di queste alternative, dimostrando che è possibile ascoltare musica in salotto senza invitare un data broker a sedersi sul divano con noi.

Alternative agli Assistenti Vocali Commerciali per la Privacy
Soluzione Livello Privacy Caratteristiche
Mycroft / Rhasspy Massimo Assistenti vocali open source che eseguono l’elaborazione locale dei comandi. Nessun dato viene inviato a server esterni, garantendo privacy assoluta. Richiedono una configurazione tecnica su dispositivi come Raspberry Pi.
Home Assistant Alto Piattaforma di automazione domestica che può funzionare senza un assistente vocale. Permette di creare automazioni complesse (es. le luci si accendono al tramonto) mantenendo tutti i dati all’interno della rete locale.
Tag NFC Molto Alto Chip fisici a basso costo che possono essere programmati per eseguire azioni quando vengono toccati con lo smartphone. Ad esempio, un tag vicino al letto può spegnere tutte le luci e impostare la sveglia. Nessuna registrazione vocale, l’automazione è attivata da un gesto fisico e volontario.

Queste opzioni, descritte da portali attenti alla privacy come Le Alternative, rappresentano una forma di resistenza tecnologica. Sceglierle significa votare con le proprie azioni per un futuro digitale più equo e rispettoso dei diritti individuali.

L’errore di cliccare “Accetta tutto” che regala il vostro profilo psicologico a 500 aziende

Il banner dei cookie, con il suo invitante pulsante “Accetta tutto”, è forse l’elemento più ingannevole dell’internet moderno. Non è una semplice formalità, ma un vero e proprio contratto che stipuliamo in una frazione di secondo, le cui clausole sono scritte in un legalese incomprensibile e distribuite tra centinaia di “partner” commerciali. Cliccare “Accetta tutto” non significa solo consentire a un sito di funzionare correttamente; significa dare il via libera a una vasta rete di data broker per tracciare, analizzare e vendere ogni nostro clic, ogni nostra ricerca, ogni secondo passato su una pagina.

La Federal Trade Commission (FTC) degli Stati Uniti ha definito chiaramente questo processo. Come riportato da Agenda Digitale, la FTC spiega che “i data broker raccolgono informazioni online sui consumatori da fonti pubbliche, le aggregano, le interpretano e le analizzano per poi vendere quei dati ad altri data broker, aziende e/o individui”. Questo clic è il “consenso” legale che permette a questa catena di sfruttamento di operare alla luce del sole. Le informazioni raccolte tramite i cookie vengono incrociate con altri dati (acquisti con carta di credito, posizione GPS, registri pubblici) per creare quel profilo psicologico di cui abbiamo parlato.

I data broker raccolgono informazioni online sui consumatori da fonti pubbliche, le aggregano, le interpretano e le analizzano per poi vendere quei dati ad altri data broker, aziende e/o individui.

– Federal Trade Commission, Report FTC sui data broker

La monetizzazione di questi dati è diretta e sorprendentemente economica per chi acquista. Il tracciamento della posizione, ad esempio, è una delle merci più preziose. Questo dato, combinato con altri, può rivelare le nostre abitudini, le nostre frequentazioni, le nostre visite mediche. Un’inchiesta di Federprivacy ha messo in luce il tariffario di questo mercato: l’accesso ai dati di geolocalizzazione di milioni di persone è disponibile a prezzi irrisori. Si stima che per cifre comprese tra 3.000 e 5.000 dollari al mese, un’azienda possa acquistare dati di localizzazione aggregati relativi a circa 2 milioni di persone in Italia. Questo dimostra quanto sia accessibile e diffusa la sorveglianza.

Rifiutare i cookie non essenziali o, meglio ancora, utilizzare browser e estensioni che bloccano i tracker per impostazione predefinita (come Brave o Firefox con uBlock Origin) non è un gesto di pignoleria, ma un atto di autodifesa. È l’equivalente digitale di chiudere a chiave la porta di casa. Lasciarla aperta cliccando “Accetta tutto” significa invitare centinaia di sconosciuti a curiosare tra i nostri cassetti più personali.

Quando spegnere fisicamente gli assistenti: i momenti privati che non devono essere cloudizzati

Nell’architettura della sorveglianza domestica, il pulsante fisico per disattivare il microfono è l’ultima linea di difesa, l’interruttore di emergenza. A differenza delle impostazioni software, che possono essere complesse o poco chiare, un interruttore fisico offre una garanzia tangibile e inequivocabile: quando il circuito è interrotto, non c’è ascolto. L’attivista per i diritti digitali non vede questo gesto come una resa alla tecnologia, ma come un’affermazione di controllo su di essa. È la decisione consapevole di tracciare un confine invalicabile tra la propria vita privata e la nuvola informatica (il cloud).

Identificare i “momenti santuario” in cui la privacy è non negoziabile è un esercizio essenziale. Non si tratta di vivere con il microfono perennemente spento, vanificando l’utilità del dispositivo, ma di sviluppare una disciplina strategica. Dobbiamo imparare a riconoscere le situazioni in cui il rischio di una registrazione, anche accidentale, supera di gran lunga qualsiasi beneficio in termini di comodità. Questi momenti non sono solo quelli legati a segreti o informazioni sensibili, ma anche quelli che definiscono la nostra umanità: le conversazioni vulnerabili, i litigi, i momenti di intimità.

Come suggerisce l’immagine, creare un’atmosfera di fiducia e apertura richiede la certezza di uno spazio privato. La presenza di un microfono sempre attivo, per quanto passivo, può generare un “chilling effect”, un’autocensura inconscia che ci porta a modificare il nostro comportamento e le nostre parole. Spegnere fisicamente il dispositivo è un modo per rivendicare il diritto a essere pienamente noi stessi, senza filtri e senza il timore di essere registrati, analizzati e giudicati da un algoritmo. Il Garante per la protezione dei dati personali stesso sottolinea l’importanza di queste precauzioni, specialmente in presenza di ospiti o durante discussioni delicate.

Ecco una lista di controllo dei momenti critici in cui premere quel pulsante dovrebbe diventare un riflesso automatico:

  • Conversazioni con ospiti: I vostri amici o familiari non hanno firmato i termini di servizio di Amazon o Google. Coinvolgerli in una registrazione senza il loro consenso esplicito è una violazione della loro privacy, non solo della vostra.
  • Discussioni di lavoro o progetti confidenziali: Parlare di strategie aziendali, clienti o proprietà intellettuale in presenza di un microfono connesso ai server di una terza parte è un rischio per la sicurezza aziendale inaccettabile.
  • Informazioni finanziarie o mediche: Qualsiasi conversazione che includa numeri di conto, dettagli di investimenti, diagnosi mediche o terapie deve avvenire in un ambiente digitalmente sterile.
  • Momenti di intimità e vulnerabilità: Discussioni personali, litigi, conversazioni emotive o qualsiasi interazione che richieda fiducia e apertura totale. Questi sono momenti umani, non dati da analizzare.
  • Quando non siete in casa: Lasciare i microfoni attivi in una casa vuota aumenta solo il rischio di attivazioni accidentali e registrazioni inutili.

L’errore di lasciare il GPS sempre attivo che traccia ogni vostro movimento per terzi

L’architettura della sorveglianza non si limita ai microfoni nelle nostre case; si estende alle nostre tasche tramite lo smartphone. L’errore più comune e insidioso che commettiamo è lasciare il servizio di localizzazione (GPS) costantemente attivo. Molte app richiedono l’accesso alla posizione per funzionare, ma spesso continuano a raccogliere dati anche quando non le stiamo usando attivamente. Questo flusso costante di coordinate geografiche è una miniera d’oro per i data broker, forse anche più preziosa delle registrazioni vocali.

La cronologia delle posizioni dipinge un ritratto incredibilmente intimo della nostra vita: dove viviamo, dove lavoriamo, quali negozi frequentiamo, dove portiamo i nostri figli a scuola, quali studi medici visitiamo, a quali manifestazioni politiche partecipiamo. Questi dati, aggregati nel tempo, permettono di inferire non solo le nostre abitudini, ma anche le nostre convinzioni, il nostro stato di salute e le nostre relazioni sociali. La geolocalizzazione è il filo che cuce insieme tutti gli altri frammenti di dati, dando loro un contesto e un significato molto più profondi.

Inoltre, l’ecosistema degli assistenti vocali è permeato da un’altra vulnerabilità: le attivazioni accidentali. Non è solo la parola “Alexa” o “Hey Google” a risvegliare il dispositivo. Una ricerca citata da Federprivacy ha rivelato che esistono numerose parole foneticamente simili che possono innescare una registrazione involontaria. Come sottolinea Stephen Hall di 9to5Google, questi dispositivi possono attivarsi con parole che si discostano lessicalmente dal comando ufficiale ma che, per l’algoritmo, suonano abbastanza simili da giustificare l’inizio della registrazione.

Gli assistenti vocali si attivano con ben 17 parole diverse che, seppur foneticamente somiglianti al comando tradizionale, se ne discostano lessicalmente in modo significativo.

– Stephen Hall, 9to5Google – Ricerca sulle attivazioni accidentali

Questo significa che la raccolta dati non è solo sistematica, ma anche erratica e imprevedibile. La combinazione di un tracciamento GPS pervasivo e di un ascolto soggetto a errori crea un sistema di sorveglianza quasi perfetto, in cui i buchi lasciati da un sensore vengono riempiti dai dati di un altro. La difesa, anche in questo caso, passa per la consapevolezza e l’azione: disattivare il GPS quando non è strettamente necessario, concedere l’accesso alla posizione alle app solo “mentre in uso” e verificare regolarmente quali applicazioni hanno accesso a questo dato così sensibile.

L’errore sui diritti d’autore che può invalidare il vostro progetto grafico generato con IA

Sebbene il titolo di questa sezione sembri specifico al mondo della grafica e dell’intelligenza artificiale generativa, esso rivela una verità universale che si applica perfettamente anche agli assistenti vocali: la totale opacità dei processi di “addestramento”. L’errore sui diritti d’autore nei progetti IA nasce dal fatto che non sappiamo su quali dati (spesso protetti da copyright) i modelli sono stati addestrati. Allo stesso modo, l’errore che commettiamo con gli assistenti vocali è credere che le nostre registrazioni vengano analizzate solo da algoritmi impersonali.

La realtà è ben diversa e molto più umana. Le stesse aziende che producono questi dispositivi ammettono, spesso in clausole nascoste, che una parte delle registrazioni vocali viene ascoltata da esseri umani. L’obiettivo ufficiale è “migliorare la qualità del servizio”, ma il risultato è che sconosciuti, spesso in condizioni di lavoro precarie, ascoltano frammenti delle nostre vite private. L’European Data Protection Board (EDPB), nelle sue linee guida sugli assistenti vocali, ha messo nero su bianco questa pratica.

Il documento dell’EDPB chiarisce che “per alcuni miglioramenti delle tecnologie audio, dei campioni delle registrazioni audio salvate potrebbero essere analizzati da revisori qualificati, che li ascoltano, li trascrivono e li annotano“. Questa non è un’ipotesi, è una procedura standard. L’idea che solo un computer ci ascolti è un mito rassicurante diffuso dalle aziende per minimizzare le preoccupazioni sulla privacy. La verità è che team composti da migliaia di persone a livello mondiale sono pagati per fare esattamente questo: ascoltare ciò che diciamo nelle nostre case.

Questa pratica, come confermato dalle linee guida EDPB 02/2021, solleva enormi questioni etiche. Chi sono questi revisori? Qual è la loro formazione? Quali misure di sicurezza impediscono loro di abusare di queste informazioni? L’opacità che circonda l’addestramento dei modelli di IA generativa è la stessa che avvolge i processi di revisione umana delle nostre registrazioni vocali. L’errore, in entrambi i casi, è fidarsi ciecamente di un sistema che non offre alcuna trasparenza. La pretesa di un’etica dei dati deve partire da qui: dal diritto di sapere non solo quali dati vengono raccolti, ma anche come e da chi vengono processati.

Punti chiave da ricordare

  • La raccolta dati non è un bug, ma il modello di business centrale che trasforma la tua privacy in un prodotto finanziario.
  • Cliccare “Accetta tutto” equivale a firmare un contratto che autorizza la vendita del tuo profilo psicologico a centinaia di aziende.
  • La vera difesa non è solo tecnica (cancellare i dati), ma strategica: spegnere fisicamente i dispositivi nei momenti critici e scegliere alternative open-source.

Come eliminare le registrazioni dai server di Amazon e Google in modo definitivo?

Abbiamo visto l’aspetto tecnico dell’eliminazione delle registrazioni. Ma la domanda, ripetuta qui, assume un significato più profondo, filosofico. Come possiamo liberarci “in modo definitivo” non solo dei file audio, ma dell’intera logica di sorveglianza che rappresentano? La risposta non risiede in un altro clic, ma in un cambiamento di mentalità. L’eliminazione definitiva si ottiene attraverso una resistenza digitale consapevole e multiforme. Significa smettere di pensare a noi stessi come semplici “utenti” e iniziare ad agire come “cittadini” di uno spazio digitale che abbiamo il diritto di plasmare.

L’eliminazione definitiva inizia con l’educazione. Significa dedicare del tempo a leggere i termini di servizio (o i loro riassunti, come quelli offerti da “Terms of Service; Didn’t Read”), a comprendere cosa sia un data broker e a spiegare questi concetti a familiari e amici. Significa sostenere le organizzazioni che lottano per i diritti digitali e fare pressione sui legislatori per normative più stringenti che impongano la “privacy by design” come standard non negoziabile, non come optional.

In secondo luogo, la liberazione definitiva passa per la scelta attiva di alternative etiche. Come abbiamo visto, esistono ecosistemi open-source che rispettano la nostra sovranità digitale. Preferire queste soluzioni, anche se richiedono uno sforzo iniziale maggiore, è un potente atto politico. Ogni euro speso per un prodotto etico è un voto contro il modello di business basato sulla sorveglianza. Infine, l’eliminazione definitiva richiede una nuova etichetta comportamentale: normalizzare lo spegnimento dei microfoni durante le riunioni, chiedere il permesso prima di parlare di argomenti sensibili in presenza di un assistente vocale, trattare la privacy altrui con la stessa serietà con cui trattiamo la nostra.

Cancellare i file è una misura di contenimento. Riprogettare le nostre abitudini e le nostre scelte di consumo è la vera strategia di liberazione. Solo così possiamo sperare di eliminare non solo i sintomi, ma la causa stessa del problema.

La difesa della nostra privacy non è una battaglia che possiamo delegare. Richiede un impegno attivo e costante. Il primo passo è armarsi di conoscenza e poi agire. Iniziate oggi stesso: verificate le impostazioni dei vostri dispositivi, parlatene con la vostra famiglia e considerate attivamente le alternative. Pretendere un’etica dei dati non è un’utopia, ma una necessità per una società libera e democratica.

Scritto da Luca Ferraris, Esperto di Cybersecurity e Digital Transformation Officer con focus sull'etica dell'Intelligenza Artificiale. Aiuta professionisti e senior a navigare la tecnologia in sicurezza e con profitto.