Alcuni sostengono che sostituirà molti lavori, qualcuno teme che l’Intelligenza Artificiale possa sostituire il genere umano, puntando in modo neanche tanto consapevole ma di certo inesorabile alla sua distruzione. Capiamo meglio cosa è realmente (e persino banalmente) l’intelligenza artificiale, se davvero è una cosa così nuova (spoiler, No, non lo è).
Soprattutto, andiamo oltre la digi-stregoneria e capiamo come la legge e i codici nazionali intervengono già ora e speriamo sappiano o abbiano il coraggio di intervenire in futuro, sulle tecnologie che il marketing definisce come intelligenze artificiali.
Questo articolo nasce dalla puntata del mio podcast Maledizioni Guidate, in cui ho parlato di AI, legge ed etica con Alessandro Parisi (computer scientist, quantitative analyst, data protection&cyber security specialist). Puoi ascoltare i contenuti di questo articolo nella puntata del podcast.
Cosa è l’Intelligenza Artificiale, nel concreto, marketing a parte
Il termine Artificial Intelligence è tutt’altro che una novità, perché risale a metà degli anni Cinquanta, quando un gruppi di pionieri guidati da Marvin Minsky iniziò a studiare in maniera approfondita e sperimentare i meccanismi cognitivi e riprodurli dal punto di vista informatico. Di fatto, tanto allora quanto oggi, la definizione corretta è apprendimento automatizzato (machine learning), molto meno filmico, ce ne rendiamo conto, ma più corretto.
Il termine Intelligenza artificiale, è stato un espediente di marketing per acquisire dei fondi di ricerca (effettivamente è molto appealing!), cosa per nulla scontata, ma la narrazione legata al termine Intelligenza Artificiale, si presta a forte rischio di antrpomorfizzazione e conseguente problema di interpretazioni corrette del fenomeno.
Dalla sospensione di Chat GPT a Bikini Off, dai dati oscuri al copyright:
tutti i problemi legali dell’Intelligenza Artificiale
In Italia, nel dibattito publico e social, pare che la faccenda di legge, tutela dei dati, e Intelligenza Artificiale sia venuta a galla realmente solo quando ci siamo svegliati una mattina e Chat GPT non funzionava più (qui un riassunto della disavventura).
A differenza di quello che i meno informati (i più, nella mia modesta e limitata percezione) dicevano, non era stato sospeso dal Garante ma questi, nel giusto esercizio dei suoi oneri e poteri, ha chiesto maggiori informazioni in merito al trattamento dei dati degli utenti soggetti alla sua tutela. A seguito di questa richiesta, è stata l’aziende proprietaria del tool, Open AI, a sospendere il servizio in Italia. Delle falle di questo trattamento dati, farò un approfondimento a parte nel prossimo articolo, promesso.
Ma questo passaggio ci serve come ponte del primo notevole intoppo legale da affrontare per le tecnologie che usano machine learning, più comunemente definite Intelligenze artificiali.
Problema della trasparenza dei dati raccolti e cyber security
Oltre alla necessità di maggiore trasparenza dei documenti legali delle piattaforme di IA, dai chatbox ai generatori di immagini, i sistemi di machine learning si nutrono di dati per poter dare delle risposte alle domande degli utenti.
Da dove provengono questi dati?
Dai contenuti che vengono messi online da chiunque, attraverso social, blog, aggregatori di contenuti? Certo. Ma anche da conversazioni private? Molto probabile. Anche da referti medici e luoghi che contengono dati molto sensibili?
Si apre uno scenario giuridico cui le società dovranno rispondere (sempre che gli Stati non decidano di abdicare al loro potere e dovere di tutela).
Problema di copyright
Oggi, se fai una domanda o una richiesta ad un Chat bot (Chat GPT non è l’unico esistente), avrai una risposta “quasi umana”, anzi oltre umana, perché si nutre dei dati che altri hanno già immesso nel web.
Sì, proprio come fino ad oggi avveniva e ancora avviene con i motori di ricerca, il sistema di IA raccoglie informazioni e ce le dà.
La differenza rispetto alla SERP di Google? Semplice: il motore di ricerca ci dà le fonti, tra le quali noi possiamo scegliere, navigare, analizzare.
Le competenze di cui ci nutriremo ci vengono date, con un motore di ricerca, da persone e entità, a volte autorevoli altre no, a volte competenti, altre no, ma che possono rispondere di quanto pubblicato e avanzare anche i diritti di autore, se noi decidiamo di duplicare i loro contenuti.
Chat GTP si nutre di dati, concetti, informazioni non sue.
Problema di verifica delle fonti nelle informazioni date
Il dare risposte e creare contenuti senza alcun riferimento alle risorse utilizzate per generare il contenuto stesso, oltre a ledere e di molto tutto quello che è stato detto, scritto e legiferato in merito al diritto d’autore (perché no, solo perché un contenuto è sul web o in circolazione non vuol dire che appartiene a tutti e tutti se ne possono appropriare) mette l’utente nella posizione di non poter verificare le fonti.
Se penso a tutti i content creator, persino giornalisti, che fino a ieri facevano ricerche fermandosi a Wikipedia, quale sarà la verifica dell’accuratezza delle fonti, ora che i chatbox alimentati con sistema di AI, diventano tool alla portata di tutti, usati su larga scala?
Quanto avrà ancora senso e potere la lotta alle fake news? (che poi, a latere, definire cos’è una fake news è un filo delicato visto che il rischio di soppressione del diritto di libera espressione è proprio dietro l’angolo)
NB: cari creator, anche voi che create contenuti e persino informative con AI, lo sapete che tutto quello che pubblicate nei luoghi virtuali di cui siete titolari o user sono sempre responsabilità vostra, vero?
Ma qui si esce dal campo del diritto e si accede a quello dell’etica del lavoro.
IA e diritto di reputazione e immagine
Abbiamo di recente affrontato il problema (perché sì, è un problema) della App BikiniOff che ricrea in pochi minuti una nudità di chiunque sia inquadrato, usando Intelligenza Artificiale e realtà aumentata.
Il problema della NON neutralità della tecnologia si incontra soprattutto in casi come questi, con strumenti alla portata di tutti, alimentati con sistemi di machine learning e che combinano, un utilizzo orientato verso un determinato scopo (potenzialmente illecito) ad un necessario utilizzo responsabile da parte dell’utente. Ci sono tool che nascono per diffondere facilmente informazioni (pur con tutte le beghe da sciogliere su elencate, che già non sono poco) e tool che nascono con un intento che è di per sé non è neutro, sul quale gli Stati e le relative legislazioni dovrebbero intervenire, in larga parte responsabilizzando coloro che mettono in campo le tecnologie in questione. Perchè senza responsabilità si finisce per dimenticare l’etica e lucrare su qualsiasi aspetto della vita umana (anche quelli che da tutte le carte nazionali ed internazionali di diritto dovrebbero risultare intangibili)
Ed è il caso di BikiniOff, ad esempio, che nasce con l’intento di creare nudità (seppur artificiali) da applicare su immagini di soggetti (o meglio, soggette) inconsapevoli, e diffonderle facilmente. Davvero possiamo definire neutra e non dannosa una tecnologia che nasce per spogliare le donne? (necessario UPDATE: ad oggi BikiniOff ha svariate categorie e non solo il nudo ma, sinceramente, non prendiamoci in giro)
Ma quindi, l’AI sostituirà il lavoro umano… e l’umano in genere?
Arrivati fin qui è chiaro che, quello che di buono o di pessimo si potrà creare e fare con l’Intelligenza Artificiale non dipenderà “dall’uso che se ne fa”, ma dall’uso che se ne consentirà e, soprattutto, dalle azioni coraggiose che i governi faranno per regolamentare tutte le possibili applicazioni dei sistemi di machine learning.
Ad oggi, per cui l’uso delle nuove tecnologie e la loro pervasività è particolarmente diffuso e pregnante, rimettere al singolo e alla sua responsabilità ed etica “il modo di usare” un certo sistema, risulta essere superificiale.
Dire che “dipende dall’uso che se ne fa, e che bisogna analizzare caso per caso”, è un modo per lavarsene le mani a fronte di multinazionali il cui fatturato è spesso di gran lunga superiore al pil degli Stati. Il senso che hanno ancora gli Stati, si capirà anche da questo coraggio.