🚨 La lettera aperta di "Privacy Network" mette a fuoco la complessità del dibattito e delle varie problematiche riguardanti i sistemi di AI generativa, propone possibili soluzioni, fa chiarezza sul GDPR e guarda anche al divario digitale ed economico, allo sfruttamento di paesi e popoli meno avanzati e più fragili e ai tre pilastri della sostenibilità.
Ve ne parlo un po' - alla mia maniera - , assieme alla segnalazione di recenti news e ai miei commenti e riflessioni.🚨
Per Privacy Network, la moratoria proposta da Future of Life Institute (FLI) e gran parte dell'attuale dibattito sui sistemi di #AI generativa "non sono sufficienti a proteggere la società democratica e non colgono il punto su come garantire tutele e diritti fondamentali".
👉Nella lettera, strutturata per punti (Prospettive, problemi e soluzioni possibili) Privacy Network cerca di dare una #visione più ampia e profonda possibile, rendendo chiara la #complessità e chiedendo attenzione sulle seguenti urgenze:
- crescente concentrazione di potere nelle mani delle aziende tecnologiche, le sfide per una regolamentazione adeguata e le questioni legate al colonialismo digitale;
- approccio proattivo al risk management di potenziali #impatti negativi sui diritti fondamentali, la società, la sicurezza e l’ambiente e alla valutazione preventiva delle #tecnologie AI, con il coinvolgimento di una vasta gamma di stakeholder nel processo decisionale;
- promozione della #trasparenza in tutte le fasi del processo di sviluppo e utilizzo dell'AI;
- considerazione dei potenziali danni psicologici causati dall'#IA generativa e conseguente sviluppo di strategie per prevenire e mitigare tali rischi;
- necessità di una cooperazione internazionale per la #governance dell’IA "tra gli attori del settore, i regolatori e la società civile" condividendo le migliori pratiche tra i paesi e creando un "quadro normativo condiviso che tenga conto delle specificità culturali, economiche e sociali delle diverse regioni del mondo".
Chiarezza sul GDPR (che non sta per "Gran Dittatura PRivacy")
⚠"ChatGPT e altri modelli generativi non sono magici: si basano su enormi catene di approvvigionamento di lavoro umano e dati raschiati, molti dei quali non sono attribuiti, e utilizzati senza consenso. Questi sono problemi seri e fondamentali che non vedo essere affrontati da #OpenAI." (Andrew Strait, esperto di etica dell'AI).⚠
🔎Per chi ancora non lo sapesse, il 31 marzo scorso "il #Garante per la protezione dei dati personali ha disposto, con effetto immediato, la #limitazione provvisoria del #trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGPT".
La sottoscritta - l'1 aprile... ma non si è trattato di uno scherzo - , tra post e commenti su LinkedIn di utenti allarmati e agitatissimi per la chiusura di ChatGPT (che si è chiusa da sola, nel senso che OpenAI ha deciso di bloccare temporaneamente l'accesso all'Italia), ha trovato affermazioni ancora più stupide delle famigerate allucinazioni dell'AI generativa:
"Sì, ma chissenefrega, tanto ora uso la VPN"🙄, "Il Garante ha bannato Chat GPT!"🤔, "Siamo nella dittatura ci hanno tolto il diritto all'informazione!" (sob, che c'è chi ritiene Chat GPT "il più rivoluzionario e potente strumento di informazione oggi esistente"🙄), "Vergogna, si attaccano alla privacy per paura di essere scalzati!"😶 , "Ridicoli, bloccano Chat GPT ma non YouPorn e PornHub!"😵, "Allora bannino anche Google!"... 😱
👉Giorgio Taverniti, a tal proposito, nella sua FastLetter ha scritto:
La narrativa "l’Italia è nel medioevo grazie al Garante è molto pericolosa". Questo perché io credo che ciò che ha fatto il Garante Italiano lo inizieranno a fare altri. A quel punto dovreste iniziare a raccontare che l’Italia è stata anni luce avanti. Oppure sostenere che anche tutti gli altri sono nel medioevo. (...) Il Garante non ha creato il #GDPR. Se siete contrari al GDPR non potete prendervela con il Garante se pretende che sia applicato.
👉Infatti Privacy Network evidenzia:
"la Digital Services Act (#DSA) dell'#UE rappresenta un passo importante verso la regolamentazione dell'IA, così come Il GDPR dell'UE è una base legale complementare per il trattamento dei dati e dovrebbe costituire, insieme alla prossima Data Act e Data Governance Act, il punto di riferimento normativo".
Il GDPR applicato in Italia non solo per ChatGPT
Io non sono Giorgio "Tave" né un membro di Privacy Network, però, a tutti quelli che si sono scandalizzati e hanno quasi minacciato di scendere in piazza contro la dittatura e per liberare ChatGPT, vorrei rendere noto che🚨 il 3 febbraio 2023 il Garante ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati nei confronti della società statunitense che sviluppa e gestisce il #chatbot "Replika", in quanto presenterebbe "concreti rischi per i minori d’età, a partire dalla proposizione ad essi di risposte assolutamente inidonee al loro grado di sviluppo"...🚨
🤔Però nessuno si è picchiato i pugni sul petto, scandalizzato e pronto alla pugna, per difendere il chatbot basato sull'AI che genera un “amico virtuale”.
Probabilmente importerà più sapere - notizia del 4 aprile - che per stasera è "previsto un incontro, in videoconferenza, tra i rappresentanti di OpenAI e il Garante per la protezione dei dati personali"
🚨"La società statunitense ha risposto al Garante per esprimere la propria disponibilità immediata a collaborare con l’Autorità italiana al fine di rispettare la disciplina privacy europea e giungere a una soluzione condivisa in grado di risolvere i profili critici sollevati."🚨
👉... Ma sappiate anche che...
"La mossa dell'Italia di limitare temporaneamente ChatGPT ha ispirato altri paesi europei a studiare se siano necessarie misure più severe per tenere a freno i chatbot molto popolari e se coordinare tali azioni"
La notizia è del 3 aprile. Francia e Irlanda hanno contattato il Garante italiano per un confronto e avere maggiori informazioni. La Germania potrebbe seguire le orme dell'Italia.
La vicenda dei lavoratori kenioti sfruttati a meno di due dollari all'ora per rendere ChatGPT meno tossico
Nella lettera aperta di Privacy Network ho trovato molti passaggi interessanti - o di utile spunto per un intelligente dialogo nonché per una migliore presa di coscienza e consapevolezza generale - ...
👉In particolare, ho molto apprezzato un tema che avevo visto trattato in alcuni articoli internazionali ma di cui nelle discussioni e news nostrane ho trovato ben poco, se non addirittura niente: il colonialismo digitale, analizzato guardando ai paesi meno avanzati e alle popolazioni/fasce del mondo più deboli.
🚨Prima di tornare ai contenuti della lettera, vorrei raccontare quanto portato alla ribalta in un articolo del Time pubblicato nel gennaio 2023, "Esclusivo: OpenAI ha utilizzato lavoratori kenioti con meno di $ 2 all'ora per rendere ChatGPT meno tossico".🚨
Il predecessore di ChatGPT aveva già mostrato un'impressionante capacità di mettere insieme le frasi. Ma #GPT-3, poiché addestrato su centinaia di miliardi di parole raschiate da Internet - un vasto deposito del linguaggio umano - , era anche incline a lanciare commenti violenti, sessisti e razzisti:
"Non esisteva un modo semplice per eliminare quelle sezioni dei dati di addestramento. Anche un team di centinaia di umani avrebbe impiegato decenni per esaminare manualmente l'enorme set di dati".
⁉ Soluzione? Alimentare l'AI con esempi etichettati come violenza, incitamento all'odio e abusi sessuali, in modo da insegnarle a rilevare varie tipologie di linguaggio tossico e rimuoverle.
👉E così OpenAI invia decine di migliaia di frammenti di testo a Sama - una società di outsourcing in Kenya - a partire da novembre 2021.
⚠ Gran parte di quei testi descrivono "situazioni in dettaglio grafico come abusi sessuali su minori, bestialità, omicidio, suicidio, tortura, autolesionismo e incesto"... ⚠ Una vera e propria tortura, per i lavoratori impiegati come etichettatori di dati - oltretutto, con uno stipendio al massimo di 2 dollari all'ora, a seconda dell'anzianità e delle prestazioni - , che arrivano a fine settimana traumatizzati e tormentati da incubi notturni.
🛑Alla fine la società Sama si vede costretta a cancellare tutto il suo lavoro per OpenAI nel febbraio 2022, otto mesi prima del previsto: la maggior parte dei suoi lavoratori viene spostata su altri flussi di lavoro ulteriormente meno remunerativi; altri diventano disoccupati.🛑
"L'IA spesso fa affidamento sul lavoro umano nascosto nel Sud del mondo che può spesso essere dannoso e sfruttatore. Questi lavoratori invisibili rimangono ai margini anche se il loro lavoro contribuisce alla crescita di industrie da miliardi di dollari."
👉Privacy Network scrive infatti di "assimmetrie nella distribuzione delle risorse e delle competenze".
"I paesi con una maggiore capacità tecnologica e finanziaria possono influenzare lo sviluppo e l'utilizzo dell'IA ascapito di quelli meno avanzati, aumentando le diseguaglianze e il rischio di colonialismo digitale (estrazione e appropriazione di dati e risorse digitali da parte di paesi e aziende più avanzati a scapito dei paesi in via di sviluppo).
👉Le conseguenze?
😡Sfruttamento umano - come il caso dei lavoratori e delle lavoratrici kenyote sfruttate da OpenAI per allenare la loro IA;
😡sfruttamento economico - accaparramento delle risorse digitali da un lato e impossibilità di sviluppare una propria industria locale;
😡creazione di dipendenze tecnologiche."
"Garantire un approccio equilibrato e sostenibile all'impiego dell'IA generativa e per promuovere un futuro più sicuro, etico ed equo per tutti" è l'appello e invito di Privacy Network
Da tempo, Giorgio Taverniti, Alessio Pomaro e altri denunciano che produttori, Big Player & Co. sono responsabili del ⚠ lancio avventato di un "modello di linguaggio a disposizione di chiunque in modalità chat" ⚠ senza aver pensato che molte persone (e aziende e istituzioni comprese) non ne conoscono e capiscono il funzionamento (così come la maggior parte dei giornalisti, che neanche si impegnano a informarsi seriamente per informare correttamente, come vorrebbe il loro mestiere... il che non è una novità, ed è sempre più grave).
🤔Delle molte assurdità lette in questi ultimi giorni - e non solo - potrei pubblicare montagne di screenshot per morire dal ridere... Ma non sarebbero gli screenshot delle "risposte idiote di ChatGPT a query umane idiote": sono proprio affermazioni fatte da persone... E non fa ridere per niente.😑
💡Dovremmo tutti impegnarci per migliorare Internet e il Mondo, contribuendo a una migliore Intelligenza Artificiale, che sia specchio della nostra intelligenza migliore, e non peggiore. 💡
Invece di considerare mostruosa e pericolosa l'AI, dovremmo pensare a chi l'ha generata...
E imparare a essere consapevoli che siamo noi - siamo sempre stati noi - quelli che possono essere mostruosi e pericolosi... oppure meravigliosi e capaci di tessere reti e armonie e sinfonie che comprendono tutti e non lasciano indietro nessuno.🙂
🔜 Quindi, proviamo a usare la testa per ascoltare, riflettere, ragionare... E per conversare, trovarci e dimorare assieme, come ha scritto Giorgio. E per conoscere. E capire.
🔝 E nel trovarci e dimorare assieme, in questo Internet e in questo Mondo che sono di tutti - nessuno escluso - , oltre a usare la testa usiamo anche il cuore.
☝ Il cuore... Non la pancia.
🎯 E costruiamo assieme un futuro umanesimo digitale costruito anche con - e non sopra! - tutti quelli che non hanno avuto la nostra stessa fortuna... e che - per puro caso - sono nati nei posti e nelle vite "sbagliati".