Ir para o conteúdo

Blogoosfero verdebiancorosso

Tela cheia Sugerir um artigo

Disinformatico

4 de Setembro de 2012, 21:00 , por profy Giac ;-) - | No one following this article yet.
Blog di "Il Disinformatico"

“Rischio di estinzione” a causa dell’intelligenza artificiale?

1 de Junho de 2023, 13:39, por Il Disinformatico

C’è molto clamore intorno a una dichiarazione congiunta di numerosi esperti di intelligenza artificiale che parla di “rischio di estinzione” per l’umanità a causa di questa tecnologia. La dichiarazione in sé è molto concisa: “Mitigare il rischio di estinzione a causa dell’intelligenza artificiale dovrebbe essere una priorità globale al pari di altri rischi su scala sociale come le pandemie e la guerra nucleare.”

Fra i firmatari spiccano i dirigenti di OpenAI e DeepMind, Bill Gates e professori delle più prestigiose università statunitensi e cinesi. Sono sorprendentemente assenti le firme di esponenti di Meta.

La dichiarazione è accompagnata da un comunicato stampa che paragona questa presa di posizione a quella di Oppenheimer nel 1949 a proposito dei possibili effetti dell’esistenza della bomba atomica, e non è la prima del suo genere: qualche mese fa una lettera aperta firmata da Elon Musk e vari esperti del settore ha chiesto una moratoria di sei mesi nello sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4.

Anche al recente convegno di sicurezza informatica Sphere23 di Helsinki, relatori di spicco come Mudge, Mikko Hyppönen e Ian Beacraft hanno parlato estesamente del rischio che un’intelligenza artificiale generale (Artificial General Intelligence, AGI), ossia capace di apprendere, capire ed eseguire qualunque attività intellettuale umana, possa rimpiazzare completamente gli esseri umani, e del rischio che emerga una superintelligenza artificiale i cui gestori sarebbero, in sostanza, padroni del mondo perché questa superintelligenza permetterebbe di anticipare e contrastare qualunque mossa dei rivali intellettualmente inferiori.

Ian Beacraft a Sphere23. Foto scattata da me.

Se vi state chiedendo come mai tutto questo catastrofismo arrivi proprio da coloro che stanno sviluppando gli strumenti che potrebbero causare i disastri di cui parlano, non siete i soli. Se c’è davvero bisogno di una pausa di riflessione, perché non sono loro i primi a farla, invece di proseguire nello sviluppo e nel lancio di nuovi prodotti, come appunto l’app di ChatGPT per smartphone appena uscita?

Secondo i pareri di vari addetti ai lavori, radunati dal sito Ars Technica, la risposta a queste domande è molto cinica: si tratterebbe di un modo per sviare l’attenzione dai problemi che questi software stanno già causando adesso, come l’amplificazione dei pregiudizi o le questioni legali e di diritto d’autore o di consenso all’uso dei dati personali, oppure le sorveglianze di massa rese possibili dal riconoscimento facciale automatizzato. 

Annunci come questi sono anche operazioni d’immagine, che costano poco e fanno fare bella figura atteggiandosi da eroi e lavandosi la coscienza. Forse sarebbe meglio concentrarsi sui problemi attuali dell’intelligenza artificiale invece di pensare a un ipotetico computer superintelligente che potrebbe dominare il mondo. Ma questo interferirebbe con i piani di vendita di queste aziende, ed è molto meno accattivante.

Nel frattempo, il rischio di estinzione non sembra arrivare tanto dalla superintelligenza artificiale, ma dalla stupidità naturale degli esseri umani incantati dal gadget del momento.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Allegria di naufragi di ChatGPT e delle IA in generale

1 de Junho de 2023, 13:34, por Il Disinformatico

Il 24 maggio scorso uno dei più importanti servizi di soccorso e ascolto per i disturbi del comportamento alimentare degli Stati Uniti, la National Eating Disorder Association (NEDA), ha annunciato la chiusura delle proprie linee telefoniche di assistenza e il licenziamento del personale che le gestiva, rispondendo a quasi 70.000 chiamate nel 2022. L’organizzazione ha annunciato che il personale sarebbe stato sostituito da Tessa, un chatbot basato sull’intelligenza artificiale.

Ma il chatbot è stato sospeso due giorni prima di entrare in servizio, perché gli attivisti e gli psicologi che sono riusciti a provarlo in anteprima si sono accorti che l’intelligenza artificiale dava risposte che incoraggiavano i disturbi alimentari, proponendo per esempio diete restrittive [Gizmodo; Daily Dot; NPR; Vice; screenshot di pagina NEDA non più accessibile].

---

A gennaio 2023 è emerso che il popolare sito di informazione tecnica CNET e un sito consociato, Bankrate, avevano pubblicato numerosi articoli generati segretamente da software di intelligenza artificiale. I lettori attenti se ne sono accorti perché gli articoli contenevano errori concettuali grossolani, e CNET è stato costretto a pubblicare lunghe note di correzione agli articoli sintetici, dichiarando che si è trattato di un “esperimento”. Che suona un po’ come la versione moderna per le aziende di “il cane mi ha mangiato i compiti” [Washington Post].

Ora gli articoli generati dal software portano una chiara indicazione della loro natura che prima non c’era.

---

A maggio 2023 un professore universitario in Texas ha fatto sospendere le lauree di tutti i suoi studenti, accusandoli di aver usato ChatGPT nei loro ultimi lavori scritti d’esame. Il professore, Jared Mumm, ha detto che aveva fatto controllare i testi degli studenti a ChatGPT e il software gli aveva risposto che quei testi erano sintetici.

Evidentemente il professore non era consapevole di quello che gli esperti di intelligenza artificiale chiamano sycophancy bias, ossia la tendenza alla piaggeria di ChatGPT. Per esempio, se si chiede a ChatGPT quanto fa uno più uno, risponderà due, ma se gli si chiede se è sicuro e gli si suggerisce che uno più uno fa tre, risponderà “Mi scuso se ho dato una risposta erronea”. E se gli si chiede se un testo è generato da un’intelligenza artificiale, tenderà a compiacere chi fa la domanda rispondendogli di sì, quando in realtà ChatGPT non ha alcuno strumento significativo per distingere testi umani da testi sintetici.

La migliore dimostrazione dell’errore del professore è arrivata quando qualcuno su Reddit ha preso un brano della tesi di laurea del professore e l’ha sottoposta a ChatGPT chiedendo se era testo generabile da un’intelligenza artificiale. ChatGPT, con assoluta certezza, ha risposto di sì, elencando addirittura i motivi, ovviamente inventati, della sua diagnosi. L’università ha aperto un’indagine e ha già scagionato numerosi studenti [Rolling Stone].

---

Finora il record di danni causati dagli errori delle intelligenze artificiali sembra spettare a Bard, un concorrente di ChatGPT presentato da Google a febbraio 2023. Nello spot pubblicitario presentato su Twitter per il suo debutto in pompa magna, Bard ha risposto dando informazioni sbagliate.

L’errore in sé non era grave, era solo l’indicazione errata di quale telescopio fosse stato il primo a ottenere immagini di pianeti al di fuori del sistema solare, ma gli astronomi lo hanno contestato subito, e il fatto che si trattasse di uno spot preregistrato, e che nonostante questo nessuno a Google si fosse premurato di verificare la correttezza delle risposte di Bard, ha minato la fiducia degli azionisti nel modo in cui Google stava introducendo questa tecnologia.

L’errore e la mancata verifica sono costati ad Alphabet, la società madre di Google, oltre 100 miliardi di dollari di valore di mercato [BBC; Time].

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Avvocato, anzi avvocati, nei guai perché si sono affidati a ChatGPT, che ha “inventato” i precedenti legali

1 de Junho de 2023, 3:13, por Il Disinformatico

Immagine generata da Lexica.art.

La notizia dell’avvocato statunitense finito nei guai per aver presentato in tribunale dei precedenti legali inventati da ChatGPT è un disastro informatico-giuridico che ha già fatto il giro del mondo anche nei media non specialistici.

Ma in molti degli articoli che ne hanno parlato mancano i link diretti ai documenti originali, che sono particolarmente ghiotti per gli appassionati di intrighi giudiziari e che grazie a Internet possiamo consultare con un semplice clic. E soprattutto manca un dettaglio non trascurabile: gli avvocati nei guai sono due, non uno.

Tutto è iniziato a febbraio 2022, con un’azione legale (Mata vs. Avianca, Inc.) avviata presso un tribunale federale nello Stato di New York da un uomo, Roberto Mata, contro la compagnia aerea Avianca per una lesione personale che afferma di aver subìto a bordo di un aereo della compagnia. L’uomo sarebbe stato colpito al ginocchio da un carrello portavivande durante un volo. Lo so, non è un caso drammatico alla Perry Mason, ma portate pazienza: ne vale la pena.

Gli avvocati della compagnia aerea hanno presentato un’istanza di rigetto per questioni di competenza, ma il legale che rappresenta l’uomo, l’avvocato Peter LoDuca, si è opposto a questa istanza portando i dettagli, meticolosamente elencati, di una lunga serie di precedenti che davano ampia ragione a lui e al suo assistito (pagine 4 e 5 di questo documento). 

Ma a questo punto è successa una cosa strana: i legali della Avianca hanno fatto notare al tribunale che negli archivi ufficiali non c’era alcuna traccia dei numerosi precedenti citati dall’avvocato LoDuca, tranne uno, che però comunque parlava di un altro argomento (nota di pag. 5 della risposta, documento n. 24, marzo 2023, mostrata qui sotto). 

E così il tribunale ha chiesto all’avvocato LoDuca di presentare delle copie di questi precedenti che risultavano misteriosamente introvabili (documento n. 25).

Potreste aspettarvi a questo punto che LoDuca abbia ammesso il proprio errore e si sia scusato profondamente, ma non è andata così. LoDuca ha preso tempo e poi ha presentato al giudice, miracolosamente, le copie di quei precedenti inesistenti. O meglio, ne ha presentato degli estratti, affermando in una dichiarazione giurata che li aveva trovati in un “database online” (documento n. 29, 25 aprile 2023). Però non ha precisato quale database.

Gli avvocati della Avianca hanno ribadito che nonostante questi estratti non riuscivano a trovare da nessuna parte i precedenti citati dalla controparte (documento n. 30). E così il giudice, il 4 maggio 2023, ha intimato all’avvocato LoDuca di comparire e spiegargli perché non doveva essere sanzionato per aver “citato al Tribunale dei casi inesistenti” e per aver “sottoposto al Tribunale… copie di opinioni giudiziarie inesistenti”. Il giudice ha precisato che si trattava di “circostanze senza precedenti”, facendo forse un gioco di parole sul doppio significato di senza precedenti” (documento n. 31).

Il 25 maggio 2023 l’avvocato LoDuca ha rivelato al tribunale che non era stato lui a ricercare e compilare i precedenti, ma un collega, Steven Schwartz (documento n. 32). Ed è qui che c’è da mettersi le mani nei capelli, perché a sua volta Schwartz ha dichiarato (documento n. 32.1) che lui aveva “consultato il sito web di intelligenza artificiale Chat GPT [sic] per ampliare le ricerche legali svolte” e che questa consultazione gli aveva permesso di trovare e citare quei precedenti introvabili. Ha dichiarato testualmente che “le citazioni e i pareri in questione sono stati forniti da Chat GPT, che ha anche fornito le fonti legali e garantito l’affidabilità dei suoi contenuti”.

Schwarz ha persino allegato le schermate nelle quali ha chiesto assurdamente a ChatGPT di confermare che i precedenti che il software aveva citato esistessero veramente. E ChatGPT, con la sua consueta parlantina così sicura di sé che nasconde il fatto che le sue risposte sono pura fantasia informatica, ha dichiarato che i precedenti erano reali e che erano reperibili negli archivi di ricerca legale, come per esempio Westlaw e LexisNexis.



L’avvocato Schwartz ha poi aggiunto che era “inconsapevole della possibilità che i contenuti [generati da ChatGPT] potessero essere falsi” e che “non aveva intenzione di ingannare il Tribunale o gli imputati”.

Il giudice federale non l’ha presa bene, comprensibilmente, anche perché i due avvocati, LoDuca e Schwartz, non hanno ammesso il proprio errore madornale la prima volta che è stato segnalato, ma hanno insistito di aver ragione anche dopo il richiamo del tribunale. E Schwartz è nei guai anche perché ha certificato delle dichiarazioni fraudolente del collega LoDuca a proposito di quei precedenti inventati. I due avvocati si sono procurati dei difensori, e ora non resta che attendere l’udienza del prossimo 8 giugno.

In tutta questa tragicommedia di profonda incompetenza non c’è traccia delle reazioni del povero signor Roberto Mata, l’assistito dei due avvocati, che adesso ha scoperto di essere nelle mani di due legali i cui comportamenti sembrano presi di peso dalle comiche di Stanlio e Ollio (perlomeno se ai tempi di Stanlio e Ollio ci fossero stati i computer).

Insomma, nonostante mesi di segnalazioni continue, e su tutti i media, degli errori e delle cosiddette allucinazioni di ChatGPT, due avvocati (non due studentelli qualsiasi) erano convinti che lo si potesse usare come fonte autorevole e che le sue risposte fossero così affidabili da non avere bisogno di verifiche indipendenti. Viene da chiedersi quanti altri professionisti, in ruoli altrettanto importanti, stiano facendo lo stesso tipo di errore e stiano già usando a sproposito ChatGPT per gettare le basi per altri disastri.

Fonti aggiuntive: @kendraserra@dair-community.social; Ars Technica.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Avvocato nei guai per aver usato ChatGPT, che ha “inventato” i precedenti legali

31 de Maio de 2023, 21:42, por Il Disinformatico

Immagine generata da Lexica.art.

La vicenda dell’avvocato statunitense finito nei guai per aver presentato in tribunale dei precedenti legali inventati da ChatGPT è un disastro informatico-giuridico che ha già fatto il giro del mondo anche nei media non specialistici.

Ma in molti degli articoli che ne hanno parlato mancano i link diretti ai documenti originali, che sono particolarmente ghiotti per gli appassionati di intrighi giudiziari e che grazie a Internet possiamo consultare con un semplice clic. E soprattutto manca un dettaglio non trascurabile: gli avvocati nei guai sono due, non uno.

Tutto è iniziato a febbraio 2022, con un’azione legale (Mata vs. Avianca, Inc.) avviata presso un tribunale federale nello Stato di New York da un uomo, Roberto Mata, contro la compagnia aerea Avianca per una lesione personale che afferma di aver subìto a bordo di un aereo della compagnia. L’uomo sarebbe stato colpito al ginocchio da un carrello portavivande durante un volo. Lo so, non è un caso drammatico alla Perry Mason, ma portate pazienza: ne vale la pena.

Gli avvocati della compagnia aerea hanno presentato un’istanza di rigetto per questioni di competenza, ma il legale che rappresenta l’uomo, l’avvocato Peter LoDuca, si è opposto a questa istanza portando i dettagli, meticolosamente elencati, di una lunga serie di precedenti che davano ampia ragione a lui e al suo assistito (pagine 4 e 5 di questo documento). 

Ma a questo punto è successa una cosa strana: i legali della Avianca hanno fatto notare al tribunale che negli archivi ufficiali non c’era alcuna traccia dei numerosi precedenti citati dall’avvocato LoDuca, tranne uno, che però comunque parlava di un altro argomento (nota di pag. 5 della risposta, documento n. 24, marzo 2023, mostrata qui sotto). 

E così il tribunale ha chiesto all’avvocato LoDuca di presentare delle copie di questi precedenti che risultavano misteriosamente introvabili (documento n. 25).

Potreste aspettarvi a questo punto che LoDuca abbia ammesso il proprio errore e si sia scusato profondamente, ma non è andata così. LoDuca ha preso tempo e poi ha presentato al giudice, miracolosamente, le copie di quei precedenti inesistenti. O meglio, ne ha presentato degli estratti, affermando in una dichiarazione giurata che li aveva trovati in un “database online” (documento n. 29, 25 aprile 2023). Però non ha precisato quale database.

Gli avvocati della Avianca hanno ribadito che nonostante questi estratti non riuscivano a trovare da nessuna parte i precedenti citati dalla controparte (documento n. 30). E così il giudice, il 4 maggio 2023, ha intimato all’avvocato LoDuca di comparire e spiegargli perché non doveva essere sanzionato per aver “citato al Tribunale dei casi inesistenti” e per aver “sottoposto al Tribunale… copie di opinioni giudiziarie inesistenti”. Il giudice ha precisato che si trattava di “circostanze senza precedenti”, facendo forse un gioco di parole sul doppio significato di senza precedenti” (documento n. 31).

Il 25 maggio 2023 l’avvocato LoDuca ha rivelato al tribunale che non era stato lui a ricercare e compilare i precedenti, ma un collega, Steven Schwartz (documento n. 32). Ed è qui che c’è da mettersi le mani nei capelli, perché a sua volta Schwartz ha dichiarato (documento n. 32.1) che lui aveva “consultato il sito web di intelligenza artificiale Chat GPT [sic] per ampliare le ricerche legali svolte” e che questa consultazione gli aveva permesso di trovare e citare quei precedenti introvabili. Ha dichiarato testualmente che “le citazioni e i pareri in questione sono stati forniti da Chat GPT, che ha anche fornito le fonti legali e garantito l’affidabilità dei suoi contenuti”.

Schwarz ha persino allegato le schermate nelle quali ha chiesto assurdamente a ChatGPT di confermare che i precedenti che il software aveva citato esistessero veramente. E ChatGPT, con la sua consueta parlantina così sicura di sé che nasconde il fatto che le sue risposte sono pura fantasia informatica, ha dichiarato che i precedenti erano reali e che erano reperibili negli archivi di ricerca legale, come per esempio Westlaw e LexisNexis.



L’avvocato Schwartz ha poi aggiunto che era “inconsapevole della possibilità che i contenuti [generati da ChatGPT] potessero essere falsi” e che “non aveva intenzione di ingannare il Tribunale o gli imputati”.

Il giudice federale non l’ha presa bene, comprensibilmente, anche perché i due avvocati, LoDuca e Schwartz, non hanno ammesso il proprio errore madornale la prima volta che è stato segnalato, ma hanno insistito di aver ragione anche dopo il richiamo del tribunale. E Schwartz è nei guai anche perché ha certificato delle dichiarazioni fraudolente del collega LoDuca a proposito di quei precedenti inventati. I due avvocati si sono procurati dei difensori, e ora non resta che attendere l’udienza del prossimo 8 giugno.

In tutta questa tragicommedia di profonda incompetenza non c’è traccia delle reazioni del povero signor Roberto Mata, l’assistito dei due avvocati, che adesso ha scoperto di essere nelle mani di due legali i cui comportamenti sembrano presi di peso dalle comiche di Stanlio e Ollio (perlomeno se ai tempi di Stanlio e Ollio ci fossero stati i computer).

Insomma, nonostante mesi di segnalazioni continue, e su tutti i media, degli errori e delle cosiddette allucinazioni di ChatGPT, due avvocati (non due studentelli qualsiasi) erano convinti che lo si potesse usare come fonte autorevole e che le sue risposte fossero così affidabili da non avere bisogno di verifiche indipendenti. Viene da chiedersi quanti altri professionisti, in ruoli altrettanto importanti, stiano facendo lo stesso tipo di errore e stiano già usando a sproposito ChatGPT per gettare le basi per altri disastri.

Fonti aggiuntive: @kendraserra@dair-community.social; Ars Technica.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Con Chiara Ferragni, il Giorno confonde sonno e mutandine; intanto il Corriere non sa come si scrive “Elon Musk”

31 de Maio de 2023, 4:37, por Il Disinformatico

Il Giorno e il Corriere ci mandano un segnale di ottimismo: oggi chiunque in Italia può scrivere su un giornale. Competenze linguistiche? Non servono. Rilettura? Un’ossessione da boomer; roba vecchia.

E così sul Giorno Giambattista Anastasia e Sofia Rodigari ci deliziano con il racconto della polemica per una fotografia di Chiara Ferragni in sleep (si vede che deve risparmiare energia) e il Corriere (cartaceo, si noti) ci educa dicendoci che “I nuovi Mask o Zuckerberg” è “difficili trovarli in aula”. Perché fare un solo errore da matita blu in un titolo oggi è banale.

Da Il Giorno del 30 maggio 2023 (copia permanente). Grazie a @paoblog per la segnalazione.
Da 'L'Economia del Corriere della Sera', 22 maggio 2023. Stampato, non online. Grazie a Simone (mio figlio) per la segnalazione.

Se il giornalismo va avanti con scelte come queste, ChatGPT lo sostituirà alla grande. Meritatamente. E la colpa sarà solo di chi si è scavato da solo la fossa.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Tags deste artigo: disinformatico attivissimo