Gehe zum Inhalt

Blogoosfero verdebiancorosso

Full screen Einen Artikel vorschlagen

Disinformatico

September 4, 2012 21:00 , von profy Giac ;-) - | No one following this article yet.
Blog di "Il Disinformatico"

Stasera alle 19 su Youtube: paradosso di Fermi e le dichiarazioni di Elon Musk

April 15, 2024 10:29, von Il Disinformatico

Stasera alle 19 sarò ospite del canale YouTube di Tesla Owners Italia per parlare delle ultime dichiarazioni di Elon Musk, tra alieni, missioni su Marte e SpaceX: chi lo osanna e chi lo prende per pazzo. Una parte della puntata sarà dedicata alle tariffe delle ricariche impazzite. Cosa c’è dietro? Con me ci saranno Fabrizio Colista, ingegnere e divulgatore tecnico scientifico, Daniele Invernizzi e Pierpaolo Zampini. Coordina Luca Del Bo.

https://www.youtube.com/watch?v=PhKLDlQZwAA

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


È morto Giovanni Battista Judica Cordiglia. No, non aveva intercettato le voci di cosmonauti morti nello spazio prima di Gagarin

April 14, 2024 5:45, von Il Disinformatico

Andrea Ferrero su Mastodon segnala la scomparsa di uno dei protagonisti italiani del cospirazionismo spaziale: “È morto il tecnico elettronico Giovanni Battista Judica Cordiglia. Oggi molti giornali diranno che insieme al fratello Achille aveva intercettato le voci di cosmonauti morti nello spazio prima di Gagarin. Non è vero”.

https://mastodon.uno/@andrea_ferrero@sociale.network/112268577678233664

Per saperne di più, consiglio questo articolo del Cicap sulle false credenze spaziali:

https://www.cicap.org/n/articolo.php?id=1801027

e il libro Cosmonauti perduti di Luca Boschini:

https://www.cicap.org/new/prodotto.php?id=3859

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Biografie astronautiche oggi col 20% di sconto

April 12, 2024 12:46, von Il Disinformatico

Per festeggiare la Giornata internazionale del volo umano nello spazio, l’editore Cartabianca.com offre solo per oggi il 20% di sconto sulle autobiografie degli astronauti lunari Cernan, Young e Collins dando il codice spaceman.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Podcast RSI - Story: Deepfake fra plagio, abuso e autodifesa

April 12, 2024 3:33, von Il Disinformatico
logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

---

Deepfake. È la parola usata per indicare la tecnica informatica che permette di sostituire il volto di una persona con un altro, in foto e in video, usando l’intelligenza artificiale, in maniera molto realistica. Così realistica che, se il deepfake è fatto bene, la maggior parte delle persone non si accorge affatto che si tratta di un volto sostituito.

Per molti utenti, deepfake è sinonimo di molestia, di truffa, ma per altri invece è un’occasione di lavoro, di scoperta della propria personalità, e addirittura di protezione personale.

Benvenuti alla puntata del 12 aprile 2024 del Disinformatico, che stavolta racconta due casi molto differenti di applicazione di deepfake che spaziano dal plagio alla molestia fino all’autodifesa, e presenta le nuove regole di Meta per la pubblicazione di deepfake e immagini sintetiche in generale. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Influencer virtuali in crescita ma sotto attacco deepfake

Pochi mesi fa, a dicembre 2023, vi ho raccontato la mia esplorazione del fenomeno delle cosiddette influencer virtuali: persone che non esistono, le cui immagini e i cui video sono generati dall’intelligenza artificiale. Identità che sono pilotate da persone reali che scelgono le loro pose, il loro vestiario e le loro apparizioni sui social network.

Una delle più celebri influencer virtuali è la spagnola Aitana Lopez, gestita da un’agenzia di moda di Barcellona: oggi ha oltre 300.000 follower su Instagram (@fit_aitana) e fa guadagnare i suoi creatori tramite i contratti pubblicitari e la vendita di foto piccanti su piattaforme per adulti come Fanvue.

L’idea dell’influencer virtuale, quasi sempre al femminile (anche se c’è qualche raro, timido tentativo al maschile), piace molto al mercato: costa molto meno di una modella o di una influencer in carne e ossa, non si lamenta delle ore di lavoro o dei vestiti scomodi, non si stanca, non invecchia, non ingrassa e non ha spese di trasferta. Se una campagna pubblicitaria ha bisogno di un volto o di un corpo che attirino l’attenzione o semplicemente indossino un certo prodotto, può rivolgersi a questi personaggi sintetici a basso costo e alta efficienza. Nessuno del pubblico si accorgerà che si tratta di immagini generate dall’intelligenza artificiale.

Creare questi personaggi virtuali è abbastanza semplice: ero riuscito anch’io a creare un clone molto realistico di Aitana Lopez, con l’aiuto di una coppia di persone esperte di grafica digitale. La parte difficile è guadagnarci qualcosa, cercando sponsor o contratti pubblicitari e scansando le offerte truffaldine di una selva di sedicenti promotori che si fanno pagare promettendo di farti avere tanti follower (tutti falsi). Ho chiuso il mio esperimento senza rimetterci soldi, ma ho continuato a seguire gli sforzi di chi mi aveva aiutato e che ora comincia a vedere i primi guadagni. Qualche foto per la copertina di un CD o di una playlist di una band emergente, qualche illustrazione per piccoli eventi, qualche fotografia sexy venduta online, tanti contenuti pubblicati diligentemente tutti i giorni, e i follower, soprattutto su Instagram, alla fine arrivano, anche nel mercato di lingua italiana, al di qua e al di là della frontiera.

Profili sintetici come Francesca Giubelli (11.000 follower), Rebecca Galani (15.000 follower) o Ambrissima (37.000 follower) vengono intervistati virtualmente dai media generalisti come se fossero persone reali, e spostano opinioni e creano discussioni, anche su temi impegnativi come il clima o i diritti umani, proprio come se fossero persone reali. Non hanno i numeri dei grandi influencer reali, certo, ma in compenso costano molto meno e soprattutto non fanno gaffe e non causano imbarazzi ai loro sponsor con le loro vicende sentimentali. Aspettatevi, insomma, che nei prossimi mesi siano sempre più presenti e numerosi gli influencer virtuali le cui immagini sono generate con l’intelligenza artificiale.

Stanno nascendo anche le prime community di influencer virtuali in lingua italiana, come Aitalia.community, i cui membri si scambiano trucchi e consigli tecnici e di marketing e si sono dati un “manifesto etico” di trasparenza, che esige per esempio che i contenuti sintetici siano sempre dichiarati come tali (a differenza di alcuni settimanali blasonati che spacciano per autentiche delle foto talmente ritoccate da dare due piedi sinistri alle persone ritratte).

Al primo punto di questo manifesto c’è il divieto dei deepfake non consensuali. Moltissimi artisti digitali che creano e curano belle immagini di modelle e modelli virtuali si vedono infatti plagiare il lavoro da operatori senza scrupoli, che scaricano in massa le immagini prodotte da questi artisti, sostituiscono i volti dei loro personaggi usando la tecnica del deepfake, senza permesso e senza compenso, e così riusano a scrocco la fatica altrui ripubblicandola sui propri profili social, che spesso hanno un seguito maggiore di quello degli artisti originali.

È un nuovo tipo di pirateria dei contenuti, ed è un problema che tocca anche le modelle e i modelli in carne e ossa. Nelle varie piattaforme social, infatti, abbondano i profili che hanno centinaia di migliaia di follower, con i relativi guadagni, ottenuti pubblicando le foto o i reel, ossia i video, di persone reali, quasi sempre donne, e sostituendone i volti per spacciarli per immagini create da loro. Lo segnala per esempio un articolo su 404media, facendo nomi e cognomi di questi sfruttatori della fatica altrui.

Molti creatori di contenuti si stanno difendendo usando il watermarking, ossia la sovrimpressione di scritte semitrasparenti per identificare l’autore originale dell’immagine sintetica o reale, ma i software di intelligenza artificiale riescono spesso a cancellare queste sovrimpressioni.

Se state pensando di fare l’influencer virtuale o reale perché vi sembra un lavoro facile, o di promuovere la vostra arte online, mettete in conto anche il rischio della pirateria. E se pensavate che fare la modella o il modello fosse uno dei pochi lavori non influenzati dall’intelligenza artificiale, devo darvi una delusione: a parte forse marmisti e pizzaioli, non si salva nessuno.

Salva dallo stalking grazie al deepfake: Sika Moon

Dalla Germania arriva un caso molto particolare di uso positivo della tecnica del deepfake, segnalato in un’intervista pubblicata da Die Tageszeitung e dedicata a una giovane donna che si fa chiamare Sika Moon e pubblica e vende online le proprie foto e i propri video per adulti. Questo è il suo lavoro a tempo pieno, e le sue attività sulle varie piattaforme social sono seguite in media da circa 4 milioni di persone al mese, dandole guadagni mensili che lei definisce “stabilmente a cinque cifre”.

Anche il suo lavoro è stato toccato dall’intelligenza artificiale. Per cinque anni ha lavorato pubblicando sulla piattaforma Onlyfans, mostrando il suo vero volto, ma delle esperienze di stalking che definisce “terribili” l’hanno costretta a proteggersi ricorrendo all’anonimato, ottenuto in questo caso facendo un deepfake a se stessa. Il viso della donna in questione, infatti, nelle foto e nei video è generato con l’intelligenza artificiale, ed è differente dal suo, ma è talmente realistico che pochi si accorgono della manipolazione. Ora ha cambiato piattaforma, perché Onlyfans rifiuta i contenuti generati sinteticamente.

Questo deepfake, insomma, le ha permesso di evitare che il suo lavoro fosse sabotato dagli stalker e le consente di proseguire la propria attività in sicurezza. È un tipo di uso positivo di questa tecnologia che non riguarda solo chi vuole proteggersi da persone pericolosamente invadenti ma vale anche, per esempio, per chi vive in un ambiente in cui è considerato reato, tipicamente solo per le donne, mostrare il proprio volto oppure è comunque necessario coprirlo o mascherarlo per non farsi identificare, per provare in sicurezza esperienze altrimenti impossibili. Un deepfake, insomma, è una maschera che però lascia passare tutta l’espressività di un viso.

Inoltre, sempre grazie all’intelligenza artificiale, Sika Moon può comunicare con i propri fan direttamente nella loro lingua. Ha infatti fatto clonare la propria voce e quindi può ora inviare messaggi vocali ai suoi follower parlando ogni volta nella loro rispettiva lingua.

Nell’intervista, Sika Moon segnala inoltre un altro fenomeno interessante che riguarda le immagini generate dall’intelligenza artificiale: in molte culture l’idea stessa che una fotografia di una persona possa essere creata sinteticamente è inconcepibile o fa molta fatica a essere accettata. In fin dei conti, una foto è una foto, un disegno è un disegno. Solo il computer permette di creare in grandi quantità disegni che sembrano fotografie. “La gente in India, nei paesi africani e in quelli arabi di solito non lo capisce affatto”, spiega Sika Moon, nonostante il suo profilo dichiari chiaramente che molte sue immagini sono completamente generate dall’intelligenza artificiale. E quello che dice corrisponde anche alla mia esperienza nel seguire le attività di altre persone che fanno lo stesso lavoro di Sika Moon appoggiandosi all’informatica per le proprie immagini.

Tutto questo sembra indicare che l’impatto culturale dell'IA sarà differente nei vari paesi del mondo. In quelli tecnologizzati verrà probabilmente attutito dalla familiarità con la tecnologia, ma in altri sarà molto più destabilizzante. Forse sarebbe opportuno tenerne conto, per non creare una nuova forma di inquinamento digitale da esportare.

Nuove regole di Meta per i contenuti sintetici

La stragrande maggioranza delle foto, dei video e degli audio generati dall’intelligenza artificiale circola sui social network ed è lì che ha il maggiore impatto. Ma allora perché i social network non fanno qualcosa per impedire la diffusione di fake news, inganni e manipolazioni che usano l’intelligenza artificiale?

La risposta a questa domanda è che in realtà i social fanno qualcosa, ma quello che fanno è inadeguato, perché la tecnologia si evolve talmente in fretta che le regole scritte per esempio dal gruppo Meta per uniformare la gestione dei contenuti sintetici da parte di Facebook, Instagram e Threads risalgono a soli quattro anni fa ma sono completamente obsolete. Nel 2020 i contenuti realistici generati dall’intelligenza artificiale erano rarissimi e si temeva soprattutto la manipolazione dei video. Da allora, invece, sono emerse le immagini sintetiche realistiche producibili in massa e anche i contenuti audio falsi e creati artificialmente.

E così Meta ha presentato le sue nuove regole con un comunicato stampa il 5 aprile scorso: prossimamente smetterà di censurare direttamente i contenuti “innocui” generati dall’intelligenza artificiale e a partire da maggio applicherà un’etichetta di avviso a una gamma più vasta di contenuti video, audio e di immagini se rileverà che sono stati creati o manipolati adoperando l’intelligenza artificiale o se chi li pubblica li indicherà spontaneamente come generati usando questa soluzione.

Mentre finora le regole bandivano soltanto i video realizzati o alterati con l’intelligenza artificiale che facevano sembrare che una persona avesse detto qualcosa che non aveva detto, ora verranno etichettati anche i video modificati per attribuire a una persona un comportamento o un gesto che non ha commesso. Da luglio, inoltre, Meta smetterà di censurare i contenuti generati che non violano le regole su argomenti come le interferenze elettorali, il bullismo, le molestie, la violenza e l’istigazione. In sostanza, ci saranno meno rimozioni e più etichettature di avvertimento.

Tuttavia c’è il problema che al momento attuale Meta si affida agli indicatori standard per riconoscere le immagini sintetiche. Molti software per la generazione di immagini, come quelli di Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock, includono nelle proprie immagini un indicatore visibile o rilevabile digitalmente, una sorta di bollino che le marca come sintetiche, e Meta usa solo questo indicatore per sapere se un’immagine è alterata oppure no; non fa nessun altro controllo. Di conseguenza, un creatore ostile può quindi generare immagini o video senza indicatori, o togliere questi indicatori da contenuti esistenti, che non verranno riconosciuti ed etichettati da Meta come sintetici.

Per colmare almeno in parte questa lacuna, Meta offrirà agli utenti la possibilità di etichettare volontariamente i contenuti generati con l’intelligenza artificiale e applicherà penalità a chi non usa questa etichettatura. Ma è chiaro che chi vuole ingannare o disseminare disinformazione non aderirà certo a questo volontariato e potrà farla franca anche con le nuove regole. Come al solito, insomma, i social network fanno troppo poco, troppo tardi.

Fonte aggiuntiva: Ars Technica.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Complotti lunari: il film “Fly Me to the Moon”

April 10, 2024 15:22, von Il Disinformatico

Scarlett Johansson e Channing Tatum sono i protagonisti di “Fly Me to the Moon”, un film in uscita a luglio che racconta gli allunaggi umani degli anni Sessanta ipotizzando che venga commissionata una messinscena da usare qualora il programma spaziale reale si rivelasse un fiasco e non riuscisse a compiere l’impresa.

Sicuramente gli ottusangoli diranno che è il modo che usa Hollywood per comunicare le verità impresentabili e forse qualcuno temerà che un film del genere possa risvegliare i lunacomplottisti, ma in realtà il trailer sembra suggerire quanto sarebbe stato difficile, se non impossibile, realizzare una finzione del genere.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Tags zu diesem Artikel: disinformatico attivissimo