Go to the content

Blogoosfero verdebiancorosso

Go back to Disinformatico
Full screen Suggest an article

Youtube iperamplifica il complottismo, promette che smetterà

February 12, 2019 6:47 , by Il Disinformatico - | No one following this article yet.
Viewed 70 times
Dietro il boom dei complottismi c’è, almeno in parte, l’intelligenza artificiale. Se guardate su Youtube un video dedicato a un certo argomento, il sistema di intelligenza artificiale di Youtube vi propone altri video dello stesso genere, e così via, in un crescendo iperpersonalizzato per ogni utente che ha un solo scopo: massimizzare il tempo che trascorrete su Youtube, perché più ne passate, più vedete pubblicità e più Google (proprietaria di Youtube) incassa.

L’idea in sé sembra ragionevole ed è la chiave del successo economico di Youtube. Ma ha una conseguenza inattesa: quest’intelligenza artificiale viene man mano alterata dagli utenti stessi.

Lo spiega bene Guillaume Chaslot, un ex dipendente di Youtube che ha contribuito allo sviluppo del sistema automatico di raccomandazione dei video. Chi passa tantissimo tempo su Youtube influenza fortemente quali video vengono suggeriti anche agli altri utenti. I video visti da questi grandi consumatori diventano ultrapopolari, e quindi i creatori di video ne producono altri dello stesso stampo per ottenere popolarità e incassi. Così gli altri utenti passano ancora più tempo a guardare quei tipi di video, diventando a loro volta grandi consumatori, che influenzano i suggerimenti per gli altri, e così via.

Questo può sembrare innocuo se i video sono quelli di Peppa Pig: Youtube proporrà altri cartoni animati analoghi. Ma quando i video consigliati parlano della Terra piatta, degli alieni che rapiscono le persone o dei vaccini come complotto delle multinazionali, allora nasce un problema. Un paio di anni fa Chaslot si è accorto che l’intelligenza artificiale di Youtube raccomandava i video che sostenevano le tesi di complotto molto più di quelli che raccontavano i fatti.

Per esempio, i video dei terrapiattisti venivano promossi circa dieci volte più di quelli che spiegano che la Terra è sferica, generando una visibilità stratosferica per queste idee distorte, e il canale ufologico Secureteam10 aveva raccolto mezzo miliardo di visualizzazioni di video falsi o ingannevoli, pieni di accuse di cospirazioni governative.

Chi entra nella spirale del complottismo, magari solo per curiosità, viene insomma bombardato da video che rinforzano questa visione deformata del mondo, mentre i video che potrebbero levargli i dubbi gli vengono nascosti. Questo crea l’impressione che una tesi di complotto sia molto più diffusa e credibile di quanto lo sia in realtà e può esasperare situazioni personali labili. Chaslot cita il caso di Buckey Wolfe, un uomo di Seattle che si è convinto che suo fratello era un uomo lucertola e lo ha ucciso. Il canale Youtube preferito di Wolfe era Secureteam10, e gli altri erano tutti dello stesso genere.

È impossibile stabilire quanto abbia avuto peso l’intelligenza artificiale di Youtube nel rinforzare il disagio mentale di Buckey Wolfe, ma di certo non ha aiutato, e tutti conosciamo qualcuno che si è fatto sedurre dal cospirazionismo grazie ai video. Pochi giorni fa Youtube ha annunciato che cambierà le proprie regole di raccomandazione di contenuti per non promuovere la disinformazione. È un buon inizio, ma sta a noi essere consapevoli di questi meccanismi di manipolazione.


Approfondimenti


Aggiungo qui alcune informazioni che per motivi di lunghezza non ho potuto includere nel testo pubblicato qui sopra, che ho preparato per la mia rubrica settimanale La Rete in tre minuti di Radio Inblu.

Chi volesse provare ad azzerare la personalizzazione delle raccomandazioni di Youtube può esplorare la propria cronologia presso https://www.youtube.com/feed/history/search_history e cliccare su Cancella tutta la cronologia delle ricerche e su cancella tutta la cronologia visualizzazioni, oppure prendere l’abitudine di usare Youtube in una finestra di navigazione privata.

Qui sotto potete guardare un video (ironicamente ospitato da Youtube) che illustra in inglese le osservazioni di Chaslot su Youtube.


E quella che segue è la spiegazione via Twitter di Chaslot che ha ispirato questo mio articolo: include la triste esperienza personale del ricercatore con un conoscente caduto nella spirale del complottismo e molti altri dettagli importanti, come l’organizzazione Algotransparency.org fondata da Chaslot per incoraggiare la trasparenza sugli algoritmi di AI.

YouTube announced they will stop recommending some conspiracy theories such as flat earth.

I worked on the AI that promoted them by the *billions*.

Here is why it’s a historic victory. Thread. 1/https://t.co/wJ1jbUcvJE
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


Brian is my best friend’s in-law. After his dad died in a motorcycle accident, he became depressed. He fell down the rabbit hole of YouTube conspiracy theories, with flat earth, aliens & co. Now he does not trust anyone. He stopped working, seeing friends, and wanting kids. 2/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019

Brian spends most of his time watching YouTube, supported by his wife.

For his parents, family and friends, his story is heartbreaking.
But from the point of view of YouTube’s AI, he’s a jackpot.

3/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


We designed YT’s AI to increase the time people spend online, because it leads to more ads. The AI considers Brian as a model that *should be reproduced*. It takes note of every single video he watches & uses that signal to recommend it to more people 4/https://t.co/xFVHkVnNLy
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


How many people like Brian are allured down such rabbit holes everyday day?

By design, the AI will try to get as many as possible.

5/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


Brian's hyper-engagement slowly biases YouTube:

1/ People who spend their lives on YT affect recommendations more
2/ So the content they watch gets more views
3/ Then youtubers notice and create more of it
4/ And people spend even more time on that content. And back at 1

6/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


This vicious circle was also observed with https://t.co/XRaKdOQiKz, and it explains why the bot became racist in less than 24 hours.

=> Platforms that use AIs often get biased by tiny groups of hyper-active users.

7/https://t.co/bM6NNlHqqd
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


Example of YT vicious circle: two years ago I found out that many conspiracies were promoted by the AI much more than truth, for instance flat earth videos were promoted ~10x more than round earth ones 🌎🤯

8/https://t.co/dCSTGftADO
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


I was not the only one to notice AI harms. @tristanharris talked about addiction. @zeynep talked about radicalization. @noUpside, political abuse and conspiracies. @jamesbridle, disgusting kids videos. @google's @fchollet, the danger of AI propaganda:https://t.co/NCPB9T7EtA

9/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


Since then many newspapers spoke about AI harms, as for instance: @wsj @guardian @nytimes @BuzzFeed @washingtonpost @bloomberg

@huffpost @dailybeast @vox @NBCNews @VICE @cjr @techreview

Journalism matters

10/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


There are 2 ways to fix vicious circles like with "flat earth"

1) make people spend more time on round earth videos
2) change the AI

YouTube’s economic incentive is for solution 1).
After 13 years, YouTube made the historic choice to go towards 2)

Will this fix work? 11/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


The AI change will have a huge impact because affected channels have billions of views, overwhelmingly coming from recommendations. For instance the channel secureteam10 made *half a billion* views with deceiving claims promoted by the AI, such as:https://t.co/ZLXyMGnGxg 12/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


Note that #secureteam10 was the most liked channel of Buckey Wolfe, who came to believe his brother was a “lizard” and killed him with a sword.
To understand how he fell down the rabbit hole, see his 1312 public likes here:https://t.co/HmS06E4SBH https://t.co/5wQupfvKD1
13/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


This AI change will save thousands from falling into such rabbit holes

(If it decreases between 1B and 10B views on such content, and if we assume one person falling for it each 100,000 views, it will prevent 10,000 to 100,000 "falls") 14/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


A concern remains that other rabbit holes are arising. I created https://t.co/0RjD2PtTvV to identify and monitor harmful content recommended by the AI.

15/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019


Conclusion: YouTube's announcement is a great victory which will save thousands. It's only the beginning of a more humane technology. Technology that empowers all of us, instead of deceiving the most vulnerable.

If you see something, say something.

16/
— Guillaume Chaslot (@gchaslot) 9 febbraio 2019









Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.

Source: http://feedproxy.google.com/~r/Disinformatico/~3/dWwn-Ao56KI/youtube-amplifica-il-complottismo.html