Ir para o conteúdo

Blogoosfero verdebiancorosso

Tela cheia Sugerir um artigo

Disinformatico

4 de Setembro de 2012, 21:00 , por profy Giac ;-) - | No one following this article yet.
Blog di "Il Disinformatico"

RSI - Niente Panico 2024/04/22

3 de Junho de 2024, 13:24, por Il Disinformatico

È a vostra disposizione la puntata di questa settimana di Niente Panico, il programma radiofonico che conduco insieme a Rosy Nervi ogni lunedì mattina alle 11, in diretta alla RSI, in aggiunta al consueto podcast del Disinformatico: streaming (si apre in una finestra separata) e download. Qui sotto trovate l’embed.

Questi sono gli argomenti di questa puntata, che include anche la musica ma è troncata e dura circa 28 minuti invece della consueta ora:

  • Donne dimenticate dalla scienza: Rosalind Franklin
  • Interviste improbabili con Character.ai: Leonardo da Vinci
  • Intelligenza artificiale nel giornalismo: trascrizione con Whisper
  • Pseudo-album di Taylor Swift su Spotify creato con l’intelligenza artificiale; musica sintetica con Mubert
  • Chiediamo a ChatGPT come eliminare le intelligenze artificiali
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


RSI - Niente Panico 2024/04/15

3 de Junho de 2024, 12:28, por Il Disinformatico

La seconda puntata di Niente Panico, il nuovo programma radiofonico che conduco insieme a Rosy Nervi in diretta alla RSI in aggiunta al consueto podcast del Disinformatico, è disponibile qui in streaming (si apre in una finestra separata) e come download qui. Qui sotto trovate l’embed.

Questi sono gli argomenti di questa puntata, che include anche la musica:

  • La traduzione italiana dell’autobiografia dell’astronauta lunare Michael Collins (Carrying the Fire)
  • Il film Fly Me to the Moon che prende in giro i complottisti
  • La lettura della poesia di Collins e di quella di sua moglie
  • Perché il delfino ha le branchie ne Il vecchio e il mare
  • Rose Villain aggredita con i deepfake; tatuaggi come tecnica di difesa
  • La crisi d’immagine di Fedez e Ferragni
  • Influencer virtuali
  • Non usare il termine revenge porn
  • Deepfake per truffe
  • Interviste improbabili con Character.ai: Dante Alighieri
  • Donne dimenticate dalla scienza: Eunice Newton Foote
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


RSI - Niente Panico 2024/04/08

3 de Junho de 2024, 10:27, por Il Disinformatico

Ho ripreso a fare un programma radiofonico in diretta alla RSI, in aggiunta al consueto podcast del Disinformatico: si intitola Niente Panico e lo conduciamo io e Rosy Nervi. La prima puntata è disponibile qui in streaming (si apre in una finestra separata) e come download qui. Qui sotto trovate l’embed.

Questi sono gli argomenti di questa puntata leggermente fetish, che include anche la musica:

  • Gli strani piedi di Roger Federer e compagna su Instagram: mistero risolto con Wikifeet
  • La copertina con due piedi sinistri di Sofia Goggia: come riconoscere le foto sintetiche
  • Tinder Swindler e le truffe sui siti di incontri
  • Uno strano caso di truffa ai danni dei feticisti dei piedi
  • Deepfake come difesa personale antistalker: la vicenda di Sika Moon
  • Programmi e app per sostituire, ringiovanire o ritoccare il volto
  • Donne dimenticate della scienza: Hedy Lamarr, l’attrice inventrice
  • La lingua più corta del mondo (col minor numero di parole): Toki Pona
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Podcast RSI - App di tracciamento mestruale, rischio di persecuzione governativa

31 de Maio de 2024, 5:28, por Il Disinformatico
logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: La scena del dazio dal film “Non ci resta che piangere” (1984)]

Questa scena, tratta dal film “Non ci resta che piangere” del 1984, è diventata simbolo di tante assurdità e cecità burocratiche. È un esempio decisamente ironico, e forse per raccontarvi la storia strana di informatica di questa settimana avrei dovuto citare qualche brano della serie TV distopica Il racconto dell’ancella, perché questa è la storia di un’app legata alla riproduzione umana ed è una storia che risponde perfettamente a una domanda che viene fatta spessissimo a chi si occupa di privacy e sicurezza digitale: “Ma che male c’è a dare qualche dato personale a un’app? Cosa vuoi che se ne facciano? Io non ho niente da nascondere”.

Siamo nel 2024, e negli Stati Uniti, non in un paese totalitario, le app di monitoraggio dell’ovulazione vengono usate per tracciare in massa la fertilità femminile, anche dai datori di lavoro, e per incriminare le donne che risultano sospette solo perché hanno un ciclo mestruale irregolare. Un dato che sembrava così innocuo è di colpo diventato potenzinale indizio di reato.

Benvenuti alla puntata del 31 maggio 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo, e vorrei avvisarvi che questa puntata tocca temi molto delicati riguardanti la riproduzione e la sessualità.

[SIGLA di apertura]

Benvenuti a Gilead

Questa storia comincia con una segnalazione su Reddit, ad aprile scorso, di un’app per il monitoraggio del ciclo mestruale di nome Ovia (App Store; Google Play), che ha iniziato da poco, dice la segnalazione, a chiedere in quale stato risiede l’utente, perché quest’informazione è necessaria per poter continuare a usare l’app.

Dato che la fisiologia umana fondamentale non varia in base ai confini di stato, viene spontaneo chiedersi come mai ci sia bisogno di specificare lo stato di residenza in quest’app. È una domanda che coinvolge le decine di milioni di persone che nel mondo usano app di questo genere, come BabyCenter, Clue, My Calendar o Flo, per tenere traccia del proprio ciclo o di quello dei familiari.

Nel 2019 l’app Ovia era stata criticata (Washington Post) perché condivideva i dati di salute dei suoi utenti con i loro datori di lavoro. Lo faceva, e lo fa tuttora, in forma aggregata e anonimizzata, certo, ma soprattutto in un’azienda piccola risalire alle identità precise delle persone alle quali si riferiscono i dati di salute è piuttosto banale, specialmente per situazioni molto palesi come una gravidanza, che è solo uno dei dati raccolti da quest’app.

I datori di lavoro possono infatti sapere quanti dipendenti hanno avuto gravidanze a rischio o parti prematuri e possono vedere le principali informazioni di natura medica cercate dalle utenti, i farmaci assunti, l’appetito sessuale, l’umore, i tentativi di concepimento, il tempo medio necessario per ottenere una gravidanza e i tipi di parto precedenti. Tutti dati immessi dalle persone, incoraggiate a farlo dai buoni spesa, circa un dollaro al giorno, offerti dall’app.

L’azienda che ha sviluppato l’app, Ovia Health, dice che tutto questo consente alle aziende di “minimizzare le spese sanitarie, scoprire problemi medici e pianificare meglio i mesi successivi” e aggiunge che la sua app “ha permesso alle donne di concepire dopo mesi di infertilità e ha anche salvato le vite di donne che altrimenti non si sarebbero rese conto di essere a rischio”.

Anche altre app dello stesso genere sono state criticate fortemente da Consumer Reports, una influentissima associazione statunitense di difesa dei consumatori, e da associazioni di attivisti tecnologici come la brasiliana Coding Rights, perché non tutelavano affatto la riservatezza delle persone, per esempio permettendo l’accesso ai dati sanitari altrui a chiunque conoscesse l’indirizzo di mail della persona presa di mira oppure passando direttamente i dati mestruali a Facebook.

Uno studio del 2019, pubblicato dal prestigioso British Medical Journal, ha rilevato che il 79% delle app relative alla salute disponibili nel Play Store di Google condivideva con terzi i dati sanitari degli utenti.

C’è un nome per questo sfruttamento commerciale dei dati sanitari delle donne: femtech. Alcune stime indicano che il mercato femtech, che “include le app di tracciamento mestruale, nutrizionale e di benessere sessuale”, potrebbe valere fino a 50 miliardi di dollari entro il 2025 (Washington Post).

Già così lo scenario era piuttosto orwelliano, ma il 2 maggio 2022 è successo qualcosa che ha trasformato una sorveglianza invadente in una trappola inquietante.

Da diritto a reato

In quella data, infatti, la stampa ha reso pubblica una bozza di parere della Corte suprema statunitense che indicava che il diritto costituzionale all’aborto, vigente in tutto il paese da quasi cinquant’anni, sarebbe stato eliminato, come è poi appunto avvenuto. Nel giro di pochi mesi, numerosi stati americani hanno vietato l’aborto quasi completamente, in qualunque circostanza, senza eccezioni per violenza sessuale o incesto e anche se la vita della donna è in pericolo (CNN).

In altre parole, un atto che per mezzo secolo era un diritto è diventato di colpo un reato. E altrettanto di colpo, i dati accumulati dalle app di tracciamento mestruale sono diventati potenziale indizio o prova di reato, come hanno fatto notare sui social network varie persone esperte di sicurezza informatica, come Eva Galperin, della Electronic Frontier Foundation o l’attivista e avvocato Elizabeth McLaughlin, che hanno consigliato esplicitamente di smettere di usare queste app e di cancellare tutti i dati.

Il rischio che quei dati vengano usati contro le utenti, infatti, è decisamente concreto. Anche prima di quel grande scossone del 2022, era già capitato che funzionari governativi statunitensi che sostenevano idee antiabortiste si procurassero dati provenienti da queste app. Nel 2019 l’ex direttore tecnico sanitario del governo del Missouri, Randall Williams, aveva fatto redigere uno spreadsheet che tracciava le mestruazioni delle donne che avevano visitato le sedi di Planned Parenthood, una organizzazione no-profit che fornisce assistenza alla procreazione pianificata (CNN). E lo stesso anno il direttore del programma di reinsediamento dei rifugiati, Scott Lloyd, attivista contro l’aborto, aveva dichiarato di aver tracciato i cicli mestruali delle giovanissime migranti nel tentativo di impedire che abortissero (Harper’s Bazaar).

È facile pensare che queste siano situazioni estreme che si verificano negli Stati Uniti e che non potrebbero mai capitare qui da noi grazie ai paletti imposti alle aziende dal GDPR e dalla Legge federale sulla protezione dei dati, ma secondo Lee Tien, consulente legale della Electronic Frontier Foundation, anche le aziende europee sono soggette alle procedure legali statunitensi grazie a vari trattati internazionali, e quindi è possibile che i dati personali di un’app di tracciamento sanitario europea possano essere comunque richiesti da un’azione legale che parte dagli Stati Uniti (KFF Health News).

Sono situazioni come questa che fanno dire agli esperti di sicurezza informatica, come Mikko Hyppönen, che argomentare che non c’è da preoccuparsi per queste raccolte di massa di dati personali, perché tanto siamo cittadini onesti e non abbiamo niente da nascondere, semplicemente “non ha senso”.

Non ha senso perché un dato, una volta rilasciato, è rilasciato per sempre, e non abbiamo idea se un dato che oggi non è problematico lo sarà invece in futuro. Un altro esempio in questo senso arriva sempre dagli Stati Uniti, ma in un campo che a prima vista sembra completamente differente: i sistemi di lettura automatica delle targhe dei veicoli.

Diffusissimi fra le forze di polizia e anche fra le aziende, questi sistemi memorizzano oltre un miliardo di passaggi di veicoli ogni mese. L’intento originale era usarli per tracciare i veicoli coinvolti in reati, cosa difficilmente criticabile, ma come fa notare la rivista Wired, questi sistemi possono anche tracciare i veicoli che attraversano un confine di stato, per esempio per portare una persona in uno stato in cui l’aborto è ancora legale. E dato che le targhe sono per definizione esposte al pubblico, non occorre un mandato per procurarsi i dati raccolti da questi lettori automatici (EFF; The Guardian).

Come dice Hyppönen, “possiamo forse fidarci dei nostri governi attuali… ma ci fidiamo ciecamente di qualunque possibile governo futuro, di un governo che potremmo avere fra cinquant’anni?”

[CLIP: citazione di Mikko Hyppönen, tratta da un TEDx Talk del 2011: “And while we might trust our governments right now […], do we blindly trust any future government, a government we might have 50 years from now?”]

Resistenza digitale

La segnalazione su Reddit dalla quale è partita questa storia è diventata virale ed è stata accompagnata da ulteriori avvisi di altri utenti, pubblicati direttamente nelle pagine di download dell’app di tracciamento mestruale in questione per mettere in guardia chi la scarica. Il consiglio ricorrente, in questi avvisi, è non solo di non usare questa app, ma di non usare nessuna app che raccolta dati legati alla sfera intima e di tornare ai vecchi sistemi cartacei: il calendario o l’agendina di una volta, insomma. La paura, infatti, è che una donna che ha un ciclo irregolare possa essere identificata erroneamente come una persona che ha abortito e venga quindi accusata di un reato che non ha commesso, con tutto quello che ne consegue.

Certo, oggi siamo tutti abituati a fare qualunque cosa tramite app, ma la comodità di avere tutto nello smartphone ha un prezzo, e quel prezzo può cambiare in qualunque momento, difficilmente a favore di noi utenti.

Nel frattempo, grazie alle segnalazioni di questo problema è nata una forma di resistenza informatica molto particolare: numerose persone di ogni orientamento stanno scaricando queste app, il cui uso è solitamente gratuito, e le stanno adoperando per tracciare qualunque evento ciclico tranne le mestruazioni. L'intento è riempire di dati fasulli e incomprensibili gli archivi delle aziende che gestiscono queste app, in modo da contaminare il loro database, fargli perdere valore commerciale e impedire agli algoritmi predittivi di funzionare correttamente.

Visto il numero elevatissimo di utenti, questo tipo di sabotaggio probabilmente non sarà molto efficace dal punto di vista pratico e diretto, ma aiuterà a far conoscere il problema e a far capire perché le leggi sulla privacy dei dati sembrano una scocciatura ma sono in realtà così importanti. Servono, in sostanza, a evitare che si passi dal non avere nulla da nascondere al non avere più nulla da nascondere.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Podcast RSI - ChatGPT ha copiato la voce di Scarlett Johansson? Il Grande Saccheggio dell’IA

24 de Maio de 2024, 2:15, por Il Disinformatico
logo del Disinformatico

ALLERTA SPOILER: Questo è il testo di accompagnamento al podcast Il Disinformatico della Radiotelevisione Svizzera che uscirà questo venerdì presso www.rsi.ch/ildisinformatico.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

---

[CLIP: voce di Scarlett Johansson da “Her”]

Questa è la voce dell’attrice Scarlett Johansson dal film del 2013 Her, o Lei nella versione italiana, nel quale interpreta un’intelligenza artificiale che dialoga a voce, usando toni molto umani e seducenti, con i suoi utenti tramite i loro smartphone. Praticamente quello che fa realmente oggi la versione più recente di ChatGPT.

E questa è una delle voci inglesi di ChatGPT:

[CLIP: voce di Sky da ChatGPT]

Se notate una forte somiglianza, non siete i soli. Questa voce è così simile a quella di Scarlett Johansson che l’attrice ha dichiarato di essere “scioccata, arrabbiata e incredula”, perché “la voce era così simile alla mia che i miei amici più stretti e le redazioni dei giornali non sapevano percepire la differenza" (X/La Regione), e ora ha incaricato dei legali di investigare sulla vicenda, mentre OpenAI, la società che gestisce ChatGPT, ha rimosso la voce contestata.

Questa è la storia di come l’idea futuribile di un film romantico e visionario è diventata realtà in poco più di un decennio, ma è anche la storia di come le aziende che producono intelligenze artificiali si stanno arricchendo immensamente agendo in zone grigie legali e attingendo al lavoro e alle immagini altrui senza dare alcun compenso, in un grande saccheggio che va accettato, dicono queste aziende, in nome del progresso. E i saccheggiati siamo tutti noi, non solo le celebrità.

Benvenuti alla puntata del 24 maggio 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Lei, storia di un corteggiamento (professionale)

Questa storia inizia a settembre 2023, quando Sam Altman, CEO di OpenAI, l’azienda di intelligenza artificiale conosciutissima per il suo ChatGPT, ha chiesto all’attrice Scarlett Johansson se era interessata a prestare la sua voce, dietro compenso, alla versione 4.0 di ChatGPT. Johansson ha rifiutato l’offerta, dice,dopo aver riflettuto molto e per ragioni personali”.

Due giorni prima della presentazione al pubblico di ChatGPT 4.0, Altman ha contattato l’agente dell’attrice chiedendo di riprendere in considerazione l’offerta. Prima ancora che iniziasse qualunque trattativa, ChatGPT 4.0 è stato rilasciato con una serie di voci che permettono agli utenti di dialogare in modo molto naturale con questo software semplicemente conversando.

Una di queste voci, denominata Sky, colpisce particolarmente sia per i suoi toni estremamente naturali, spiritosi e vivaci, al limite del flirt continuo con l’utente, sia per il fatto che somiglia davvero parecchio alla voce di Scarlett Johansson.

Se avete visto il film Lei in italiano, avrete apprezzato la voce e il talento della doppiatrice Micaela Ramazzotti…

[CLIP: voce di Micaela Ramazzotti che interpreta Samantha in Lei]

... ma vi sarete persi quella altrettanto memorabile di Johansson e quindi la somiglianza con la voce di ChatGPT non sarà così immediatamente evidente. Però indubbiamente la voce di Sky è molto, molto vicina a quella dell’attrice statunitense. E Altman non ha fatto mistero del fatto che il film Lei è una delle sue ispirazioni centrali, dichiarando pubblicamente che lo considera “incredibilmente profetico” e che ha azzeccato in pieno la rappresentazione del modo in cui oggi le persone interagiscono con le intelligenze artificiali.

Inoltre il 13 maggio scorso, poco dopo la presentazione al pubblico della voce di ChatGPT che ricorda così tanto quella di Johansson, Altman ha pubblicato un tweet contenente una sola parola: her. Il titolo originale del film.

L’attrice ha dato incarico a dei legali, che hanno chiesto formalmente a OpenAI di fornire i dettagli esatti di come hanno creato la voce denominata Sky. L’azienda ha risposto che la voce non è stata generata partendo da quella di Scarlett Johansson, ma appartiene a un’attrice assunta tempo addietro dall’azienda. Il Washington Post ha contattato l’agente di questa attrice, sotto anonimato per ragioni di sicurezza personale, e ha visionato documenti e ascoltato i provini registrati dall’attrice, e risulta che la sua voce calda e coinvolgente è identica a quella di Sky.

OpenAI ha anche pubblicato una cronologia dettagliata degli eventi, dicendo che a maggio 2023 aveva selezionato cinque voci di attori e attrici e successivamente aveva contattato Johansson proponendole di diventare la sesta voce di ChatGPT accanto alle altre, compresa quella di Sky, ma Johansson aveva cordialmente respinto la proposta una settimana più tardi tramite il suo agente.

Le voci degli altri attori sono state integrate in ChatGPT il 25 settembre scorso, dice OpenAI, e sono passati circa otto mesi prima che OpenAI ricontattasse Johansson il 10 maggio scorso, proponendole di diventare una futura voce aggiuntiva di ChatGPT, in occasione del lancio della nuova versione del prodotto. Il 19 maggio, pochi giorni dopo le dichiarazioni di Johansson, l’azienda ha disattivato la voce di Sky “per rispetto verso le preoccupazioni [dell’attrice]”.

Sembra insomma che si tratti solo di un caso di tempismo poco felice e di incomprensione, ma resta un problema: quello che ha fatto OpenAI, ossia creare una voce che molti trovano estremamente somigliante a quella di Johansson e guadagnarci parecchi soldi, è lecito?

Imitare non è lecito se l’intento è ingannare

Secondo gli esperti interpellati da varie testate giornalistiche (Washington Post; The Information), scegliere per il proprio prodotto una voce che somiglia molto a quella di una celebrità, specificamente di una celebrità nota per aver interpretato proprio il ruolo della voce di un prodotto analogo in un film molto conosciuto, e giocare sul fatto che molti utenti paganti di ChatGPT penseranno che si tratti della voce di Johansson, rischia di essere comunque illegale anche se l’azienda non ha effettivamente clonato la voce dell’attrice ma ha assunto una persona differente ma somigliante.

Ci sono dei precedenti piuttosto importanti in questo senso, che risalgono a molto prima del boom dell’intelligenza artificiale. Quando non esisteva ancora la possibilità di usare campioni di registrazioni della voce di una persona per generarne una replica digitale si usavano gli imitatori in carne e ossa.

Per esempio, nel 1986 uno spot televisivo della Ford usò una imitatrice al posto della cantante Bette Midler come voce per un brano, Do You Wanna Dance di Bobby Freeman, che Midler aveva cantato. Midler era stata contattata per chiederle se fosse disposta a cantare nello spot, e lei aveva rifiutato. Così l’agenzia pubblicitaria incaricata dalla Ford, la Young & Rubicam, fece cantare la canzone a una corista di Midler, Ula Hedwig.

Il parallelo con la vicenda di Scarlett Johansson e OpenAI è evidente, ma c’è una differenza importante: nel caso di Bette Midler, l’agenzia diede alla corista l’istruzione specifica di imitare la cantante. Midler fece causa, e vinse, ricevendo 400.000 dollari di risarcimento.

Anche il cantante Tom Waits si è trovato al centro di un caso di imitazione a scopo pubblicitario. Nel 1990 la Frito-Lay usò un imitatore per inserire in un suo spot dedicato alle patatine di mais una voce che somigliasse a quella di Waits. L‘azienda fu condannata a pagare due milioni e mezzo di dollari.

Anche il chitarrista Carlos Santana, nel 1991, fece causa a un’azienda, la Miller Beer, per aver assunto un imitatore: non della sua voce, ma del suo stile di suonare la chitarra, in modo da usare il suo celeberrimo brano Black Magic Woman in uno spot televisivo. La disputa fu risolta in via stragiudiziale.

In sostanza, stando agli esperti non importa se OpenAI ha assunto un sosia vocale di Scarlett Johansson o se ha proprio clonato la sua voce usando l’intelligenza artificiale: quello che conta è che ci fosse o meno l’intenzione di assomigliare alla voce di Johansson. Per il momento ci sono notevoli indizi indiretti di questa intenzione, ma manca una prova schiacciante, una richiesta esplicita di imitare la celebre attrice. Che per ora non ha avviato formalmente una causa.

Ma comunque vadano le cose nella disputa fra OpenAI e Scarlett Johansson, il problema dello sfruttamento gratuito dell’immagine, della voce o delle creazioni altrui da parte delle aziende di intelligenza artificiale rimane e tocca non solo gli attori e gli autori, ma ciascuno di noi.

Il Grande Saccheggio

Le intelligenze artificiali, infatti, hanno bisogno di enormi quantità di dati sui quali addestrarsi. Se devono riconoscere immagini, devono addestrarsi usando milioni di fotografie; se devono elaborare testi o generare risposte testuali, devono leggere miliardi di pagine; se devono generare musica, hanno bisogno di acquisire milioni di brani. Ma molte di queste immagini, di questi testi e di questi brani sono protetti dal diritto d’autore, appartengono a qualcuno. Se un’azienda usa contenuti di terzi senza autorizzazione per guadagnare soldi, sta commettendo un abuso.

La fame di contenuti delle intelligenze artificiali sembra inesauribile e incontenibile, e le aziende non sembrano curarsi del fatto che i loro software saccheggino le dispense intellettuali altrui.

Gli esperti hanno trovato il modo di rivelare che quasi tutti i principali software di IA contengono i testi integrali di libri, riviste e quotidiani. A dicembre scorso il New York Times ha avviato una causa contro OpenAI e Microsoft per violazione del diritto d'autore, dato che ChatGPT e Bing Chat hanno dimostrato di essere capaci di produrre contenuti praticamente identici a milioni di articoli del Times, sfruttando la fatica cumulativa dei giornalisti della testata senza permesso e senza compenso.

Anche gli scrittori George RR Martin (celebre per il Trono di spade) e John Grisham, insieme a molte altre firme celebri, hanno avviato una lite con OpenAI perché è emerso che ChatGPT ha incamerato e usato i testi integrali dei loro libri per migliorare le proprie capacità. Accusano OpenAI testualmente di “furto sistematico di massa”.

E non è solo un problema degli autori. Nella loro fame irrefrenabile, le intelligenze artificiali ingeriscono qualunque testo e cercano sempre contenuti nuovi, e le aziende non si fanno scrupoli a fornirglieli da qualunque fonte. Per esempio, Slack, una popolarissima piattaforma di chat e collaborazione aziendale, ha annunciato che usa le conversazioni degli utenti per addestrare la propria intelligenza artificiale, senza chiedere il loro consenso preventivo. Grok, l’intelligenza artificiale di X o Twitter, legge tutti i post pubblici degli utenti. Meta ha dato in pasto alla propria IA un miliardo di post su Instagram, Google fa leggere alla propria IA le mail degli utenti di Gmail, e Microsoft usa le chat con Bing per addestrare il proprio software. Nel campo delle immagini, Midjourney e OpenAI sono in grado di ricreare scene di film e videogiochi, dimostrando così di essere stati addestrati usando questi contenuti sotto copyright. Così fan tutti, insomma.

Ma nessuno di noi, quando ha aperto la propria casella Gmail o il proprio profilo Instagram, aveva immaginato un futuro nel quale le sue conversazioni, le sue foto, i suoi video sarebbero stati usati in massa per addestrare software che, se pungolati correttamente, rigurgitano brani interi di queste conversazioni.

E le aziende del settore dicono spavaldamente che tutto questo non solo va bene e che non c’è da preoccuparsi: dichiarano che è addirittura necessario, perché secondo loro è “impossibile” addestrare le grandi intelligenze artificiali senza attingere a opere vincolate dal diritto d'autore. Lo ha dichiarato specificamente OpenAI in una comunicazione formale alla Camera dei Lord britannica a dicembre scorso.

Ma c’è chi traduce quella comunicazione formale in parole molto più concise e taglienti, come l’esperto di intelligenza artificiale e professore emerito alla New York University Gary Marcus, che riassume la questione così: “Non possiamo diventare favolosamente ricchi se non ci permettete di rubare, quindi fate in modo che rubare non sia reato, e non fateci neanche pagare diritti di licenza! Certo, Netflix paga miliardi l’anno in diritti, ma noi non dovremmo essere tenuti a farlo!”

OpenAI vale attualmente circa 80 miliardi di dollari e ha triplicato il proprio valore in meno di dieci mesi.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Tags deste artigo: disinformatico attivissimo