Privacy Network scrive ai politici, ma anche a noi: l'Intelligenza Artificiale ha bisogno di regole per un futuro più sicuro, etico ed equo per tutti (2023)

🚨 La lettera aperta di "Privacy Network" mette a fuoco la complessità del dibattito e delle varie problematiche riguardanti i sistemi di AI generativa, propone possibili soluzioni, fa chiarezza sul GDPR e guarda anche al divario digitale ed economico, allo sfruttamento di paesi e popoli meno avanzati e più fragili e ai tre pilastri della sostenibilità.

Ve ne parlo un po' - alla mia maniera - , assieme alla segnalazione di recenti news e ai miei commenti e riflessioni.🚨

Per Privacy Network, la moratoria proposta da Future of Life Institute (FLI) e gran parte dell'attuale dibattito sui sistemi di #AI generativa "non sono sufficienti a proteggere la società democratica e non colgono il punto su come garantire tutele e diritti fondamentali".

👉Nella lettera, strutturata per punti (Prospettive, problemi e soluzioni possibili) Privacy Network cerca di dare una #visione più ampia e profonda possibile, rendendo chiara la #complessità e chiedendo attenzione sulle seguenti urgenze:

  • crescente concentrazione di potere nelle mani delle aziende tecnologiche, le sfide per una regolamentazione adeguata e le questioni legate al colonialismo digitale;
  • approccio proattivo al risk management di potenziali #impatti negativi sui diritti fondamentali, la società, la sicurezza e l’ambiente e alla valutazione preventiva delle #tecnologie AI, con il coinvolgimento di una vasta gamma di stakeholder nel processo decisionale;
  • promozione della #trasparenza in tutte le fasi del processo di sviluppo e utilizzo dell'AI;
  • considerazione dei potenziali danni psicologici causati dall'#IA generativa e conseguente sviluppo di strategie per prevenire e mitigare tali rischi;
  • necessità di una cooperazione internazionale per la #governance dell’IA "tra gli attori del settore, i regolatori e la società civile" condividendo le migliori pratiche tra i paesi e creando un "quadro normativo condiviso che tenga conto delle specificità culturali, economiche e sociali delle diverse regioni del mondo".

Chiarezza sul GDPR (che non sta per "Gran Dittatura PRivacy")

"ChatGPT e altri modelli generativi non sono magici: si basano su enormi catene di approvvigionamento di lavoro umano e dati raschiati, molti dei quali non sono attribuiti, e utilizzati senza consenso. Questi sono problemi seri e fondamentali che non vedo essere affrontati da #OpenAI." (Andrew Strait, esperto di etica dell'AI).⚠

🔎Per chi ancora non lo sapesse, il 31 marzo scorso "il #Garante per la protezione dei dati personali ha disposto, con effetto immediato, la #limitazione provvisoria del #trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGPT".

Privacy Network scrive ai politici, ma anche a noi: l'Intelligenza Artificiale ha bisogno di regole per un futuro più sicuro, etico ed equo per tutti (1)

La sottoscritta - l'1 aprile... ma non si è trattato di uno scherzo - , tra post e commenti su LinkedIn di utenti allarmati e agitatissimi per la chiusura di ChatGPT (che si è chiusa da sola, nel senso che OpenAI ha deciso di bloccare temporaneamente l'accesso all'Italia), ha trovato affermazioni ancora più stupide delle famigerate allucinazioni dell'AI generativa:

"Sì, ma chissenefrega, tanto ora uso la VPN"🙄, "Il Garante ha bannato Chat GPT!"🤔, "Siamo nella dittatura ci hanno tolto il diritto all'informazione!" (sob, che c'è chi ritiene Chat GPT "il più rivoluzionario e potente strumento di informazione oggi esistente"🙄), "Vergogna, si attaccano alla privacy per paura di essere scalzati!"😶 , "Ridicoli, bloccano Chat GPT ma non YouPorn e PornHub!"😵, "Allora bannino anche Google!"... 😱

👉Giorgio Taverniti, a tal proposito, nella sua FastLetter ha scritto:

La narrativa "l’Italia è nel medioevo grazie al Garante è molto pericolosa". Questo perché io credo che ciò che ha fatto il Garante Italiano lo inizieranno a fare altri. A quel punto dovreste iniziare a raccontare che l’Italia è stata anni luce avanti. Oppure sostenere che anche tutti gli altri sono nel medioevo. (...) Il Garante non ha creato il #GDPR. Se siete contrari al GDPR non potete prendervela con il Garante se pretende che sia applicato.

👉Infatti Privacy Network evidenzia:

"la Digital Services Act (#DSA) dell'#UE rappresenta un passo importante verso la regolamentazione dell'IA, così come Il GDPR dell'UE è una base legale complementare per il trattamento dei dati e dovrebbe costituire, insieme alla prossima Data Act e Data Governance Act, il punto di riferimento normativo".

Il GDPR applicato in Italia non solo per ChatGPT

Io non sono Giorgio "Tave" né un membro di Privacy Network, però, a tutti quelli che si sono scandalizzati e hanno quasi minacciato di scendere in piazza contro la dittatura e per liberare ChatGPT, vorrei rendere noto che🚨 il 3 febbraio 2023 il Garante ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati nei confronti della società statunitense che sviluppa e gestisce il #chatbot "Replika", in quanto presenterebbe "concreti rischi per i minori d’età, a partire dalla proposizione ad essi di risposte assolutamente inidonee al loro grado di sviluppo"...🚨

🤔Però nessuno si è picchiato i pugni sul petto, scandalizzato e pronto alla pugna, per difendere il chatbot basato sull'AI che genera un “amico virtuale”.

Probabilmente importerà più sapere - notizia del 4 aprile - che per stasera è "previsto un incontro, in videoconferenza, tra i rappresentanti di OpenAI e il Garante per la protezione dei dati personali"

Privacy Network scrive ai politici, ma anche a noi: l'Intelligenza Artificiale ha bisogno di regole per un futuro più sicuro, etico ed equo per tutti (2)
🚨"La società statunitense ha risposto al Garante per esprimere la propria disponibilità immediata a collaborare con l’Autorità italiana al fine di rispettare la disciplina privacy europea e giungere a una soluzione condivisa in grado di risolvere i profili critici sollevati."🚨

👉... Ma sappiate anche che...

"La mossa dell'Italia di limitare temporaneamente ChatGPT ha ispirato altri paesi europei a studiare se siano necessarie misure più severe per tenere a freno i chatbot molto popolari e se coordinare tali azioni"

La notizia è del 3 aprile. Francia e Irlanda hanno contattato il Garante italiano per un confronto e avere maggiori informazioni. La Germania potrebbe seguire le orme dell'Italia.

La vicenda dei lavoratori kenioti sfruttati a meno di due dollari all'ora per rendere ChatGPT meno tossico

Nella lettera aperta di Privacy Network ho trovato molti passaggi interessanti - o di utile spunto per un intelligente dialogo nonché per una migliore presa di coscienza e consapevolezza generale - ...

👉In particolare, ho molto apprezzato un tema che avevo visto trattato in alcuni articoli internazionali ma di cui nelle discussioni e news nostrane ho trovato ben poco, se non addirittura niente: il colonialismo digitale, analizzato guardando ai paesi meno avanzati e alle popolazioni/fasce del mondo più deboli.

🚨Prima di tornare ai contenuti della lettera, vorrei raccontare quanto portato alla ribalta in un articolo del Time pubblicato nel gennaio 2023, "Esclusivo: OpenAI ha utilizzato lavoratori kenioti con meno di $ 2 all'ora per rendere ChatGPT meno tossico".🚨

Il predecessore di ChatGPT aveva già mostrato un'impressionante capacità di mettere insieme le frasi. Ma #GPT-3, poiché addestrato su centinaia di miliardi di parole raschiate da Internet - un vasto deposito del linguaggio umano - , era anche incline a lanciare commenti violenti, sessisti e razzisti:

"Non esisteva un modo semplice per eliminare quelle sezioni dei dati di addestramento. Anche un team di centinaia di umani avrebbe impiegato decenni per esaminare manualmente l'enorme set di dati".

Soluzione? Alimentare l'AI con esempi etichettati come violenza, incitamento all'odio e abusi sessuali, in modo da insegnarle a rilevare varie tipologie di linguaggio tossico e rimuoverle.

👉E così OpenAI invia decine di migliaia di frammenti di testo a Sama - una società di outsourcing in Kenya - a partire da novembre 2021.

Privacy Network scrive ai politici, ma anche a noi: l'Intelligenza Artificiale ha bisogno di regole per un futuro più sicuro, etico ed equo per tutti (3)

⚠ Gran parte di quei testi descrivono "situazioni in dettaglio grafico come abusi sessuali su minori, bestialità, omicidio, suicidio, tortura, autolesionismo e incesto"... ⚠ Una vera e propria tortura, per i lavoratori impiegati come etichettatori di dati - oltretutto, con uno stipendio al massimo di 2 dollari all'ora, a seconda dell'anzianità e delle prestazioni - , che arrivano a fine settimana traumatizzati e tormentati da incubi notturni.

🛑Alla fine la società Sama si vede costretta a cancellare tutto il suo lavoro per OpenAI nel febbraio 2022, otto mesi prima del previsto: la maggior parte dei suoi lavoratori viene spostata su altri flussi di lavoro ulteriormente meno remunerativi; altri diventano disoccupati.🛑

"L'IA spesso fa affidamento sul lavoro umano nascosto nel Sud del mondo che può spesso essere dannoso e sfruttatore. Questi lavoratori invisibili rimangono ai margini anche se il loro lavoro contribuisce alla crescita di industrie da miliardi di dollari."

👉Privacy Network scrive infatti di "assimmetrie nella distribuzione delle risorse e delle competenze".

"I paesi con una maggiore capacità tecnologica e finanziaria possono influenzare lo sviluppo e l'utilizzo dell'IA ascapito di quelli meno avanzati, aumentando le diseguaglianze e il rischio di colonialismo digitale (estrazione e appropriazione di dati e risorse digitali da parte di paesi e aziende più avanzati a scapito dei paesi in via di sviluppo).

👉Le conseguenze?

😡Sfruttamento umano - come il caso dei lavoratori e delle lavoratrici kenyote sfruttate da OpenAI per allenare la loro IA;
😡sfruttamento economico - accaparramento delle risorse digitali da un lato e impossibilità di sviluppare una propria industria locale;
😡creazione di dipendenze tecnologiche."

"Garantire un approccio equilibrato e sostenibile all'impiego dell'IA generativa e per promuovere un futuro più sicuro, etico ed equo per tutti" è l'appello e invito di Privacy Network

Da tempo, Giorgio Taverniti, Alessio Pomaro e altri denunciano che produttori, Big Player & Co. sono responsabili del lancio avventato di un "modello di linguaggio a disposizione di chiunque in modalità chat" senza aver pensato che molte persone (e aziende e istituzioni comprese) non ne conoscono e capiscono il funzionamento (così come la maggior parte dei giornalisti, che neanche si impegnano a informarsi seriamente per informare correttamente, come vorrebbe il loro mestiere... il che non è una novità, ed è sempre più grave).

Privacy Network scrive ai politici, ma anche a noi: l'Intelligenza Artificiale ha bisogno di regole per un futuro più sicuro, etico ed equo per tutti (4)

🤔Delle molte assurdità lette in questi ultimi giorni - e non solo - potrei pubblicare montagne di screenshot per morire dal ridere... Ma non sarebbero gli screenshot delle "risposte idiote di ChatGPT a query umane idiote": sono proprio affermazioni fatte da persone... E non fa ridere per niente.😑

💡Dovremmo tutti impegnarci per migliorare Internet e il Mondo, contribuendo a una migliore Intelligenza Artificiale, che sia specchio della nostra intelligenza migliore, e non peggiore. 💡

Invece di considerare mostruosa e pericolosa l'AI, dovremmo pensare a chi l'ha generata...

E imparare a essere consapevoli che siamo noi - siamo sempre stati noi - quelli che possono essere mostruosi e pericolosi... oppure meravigliosi e capaci di tessere reti e armonie e sinfonie che comprendono tutti e non lasciano indietro nessuno.🙂

🔜 Quindi, proviamo a usare la testa per ascoltare, riflettere, ragionare... E per conversare, trovarci e dimorare assieme, come ha scritto Giorgio. E per conoscere. E capire.

🔝 E nel trovarci e dimorare assieme, in questo Internet e in questo Mondo che sono di tutti - nessuno escluso - , oltre a usare la testa usiamo anche il cuore.

☝ Il cuore... Non la pancia.

🎯 E costruiamo assieme un futuro umanesimo digitale costruito anche con - e non sopra! - tutti quelli che non hanno avuto la nostra stessa fortuna... e che - per puro caso - sono nati nei posti e nelle vite "sbagliati".

Privacy Network scrive ai politici, ma anche a noi: l'Intelligenza Artificiale ha bisogno di regole per un futuro più sicuro, etico ed equo per tutti (5)

References

Top Articles
Latest Posts
Article information

Author: Rev. Leonie Wyman

Last Updated: 27/11/2023

Views: 5582

Rating: 4.9 / 5 (59 voted)

Reviews: 90% of readers found this page helpful

Author information

Name: Rev. Leonie Wyman

Birthday: 1993-07-01

Address: Suite 763 6272 Lang Bypass, New Xochitlport, VT 72704-3308

Phone: +22014484519944

Job: Banking Officer

Hobby: Sailing, Gaming, Basketball, Calligraphy, Mycology, Astronomy, Juggling

Introduction: My name is Rev. Leonie Wyman, I am a colorful, tasty, splendid, fair, witty, gorgeous, splendid person who loves writing and wants to share my knowledge and understanding with you.