Ir para o conteúdo

Blogoosfero verdebiancorosso

Tela cheia Sugerir um artigo

Disinformatico

4 de Setembro de 2012, 21:00 , por profy Giac ;-) - | No one following this article yet.
Blog di "Il Disinformatico"

Da dove nasce #IlGattoDelGiorno?

19 de Julho de 2023, 9:25, por Il Disinformatico

La mia “rubrica” Il Gatto Del Giorno è nata sull’impulso del momento, senza un piano preciso, ma vedo che piace a parecchia gente, per cui riassumo qui le sue origini per rispondere a una curiosità ricorrente e tenerne traccia prima che i dettagli sfumino nella memoria.

Premessa: anni fa ero iscritto a un feed RSS che, fra le tante offerte, proponeva quotidianamente delle bellissime collezioni di sfondi, con titoli come Widescreen Wallpapers for your desktop, Desktop Wallpapers 4K Ultra HD, Classy Wallpapers, ComputerDesktopWallpapersCollection, HD Wallpaper Mix, Desktop Wallpapers HD, SuperWallpapers, High-Quality Wallpaper Pack, New Best Wallpapers Pack, eccetera. Contenevano foto splendide tratte da film e telefilm, immagini spettacolari di automobili, aerei e veicoli spaziali civili e militari, sfondi astratti, modelle, attrici e attori, animali e in particolare tanti gatti, in altissima risoluzione (4K o superiori). Facevano un figurone come screen saver a rotazione sul mio monitor gigante ed erano (e tuttora sono) ottimi supporti per le mie lezioni e presentazioni pubbliche.



Vista la quantità, la qualità e soprattutto l’assiduità con la quale venivano pubblicate queste collezioni (un centinaio di foto ognuna, con alcune collezioni che si avvicinavano al migliaio di collezioni pubblicate), mi sono sempre chiesto chi preparasse tutto questo materiale e perché, visto che non c’era un ritorno economico diretto o indiretto (niente pubblicità, nessuna richiesta di denaro). 

Ho un sospetto, che non posso confermare: considerato che le foto di veicoli militari includevano moltissime immagini di aerei, carri armati e sommergibili russi, e che le foto delle auto e delle modelle mostravano targhe e ambientazioni indiscutibilmente russe e fra le illustrazioni di animali spiccavano spesso orsi con la stella rossa, può darsi che si trattasse di una forma di propaganda pro-Russia. Ma i dati EXIF che ho controllato non hanno rivelato nulla.






 

Sia come sia, mi sono ritrovato con decine di migliaia di fotografie di vario genere, che ho selezionato e archiviato in cartelle tematiche. Le foto del Gatto Del Giorno provengono da lì.

Prevengo l’inevitabile battuta: no, non ho intenzione di avviare una rubrica La Modella Scosciata Davanti a BMW Tamarra del Giorno; se è questo il materiale che cercate, potete procurarvelo per i fatti vostri. Gli indizi ve li ho forniti.

---

L’idea di usare queste immagini di gatti per una rubrica quotidiana mi è venuta a febbraio 2020, in piena pandemia, quando eravamo tutti chiusi in casa, senza vaccini, con bollettini sanitari catastrofici e senza speranze all’orizzonte. Ho pensato che una foto al giorno di un bel gatto, pubblicata di mattina come prima cosa non appena mi svegliavo, avrebbe forse dato un piccolo momento di sollievo a qualcuno, e così ho attinto a quella cartella felina e ho cominciato a postare quotidianamente.

Non mi aspettavo che sarebbe diventato un appuntamento così seguito, con gente che mi scrive chiedendo se sto bene visto che non ho ancora pubblicato il Gatto del Giorno (a volte faccio tardi la notte e quindi mi alzo tardi la mattina, o sono in viaggio e sto guidando). Ed è stato bello vedere che i colleghi di ReteTre hanno addirittura creato questo omaggio:

Non sono sicuro della data precisa di quando ho iniziato la rubrica. Su Instagram, il mio primo post con il testo “Il gatto del giorno” dovrebbe essere quello del 10 febbraio 2020, mentre il primo con l’hashtag #IlGattoDelGiorno (in maiuscolo o minuscolo) è dell’11 febbraio 2020. Su Twitter, invece, ho iniziato a usare l’hashtag il 17 febbraio 2020, perlomeno secondo la ricerca di Twitter, che però in questo periodo mi sembra decisamente inaffidabile. Dopo lo sconquasso di Twitter causato da Elon Musk, ho smesso di postare il GDG su quella piattaforma e ho iniziato a farlo invece su Mastodon il 25 novembre 2022 e sul mio canale Telegram il 29 novembre 2022. Se per caso scoprite qualcosa di diverso, avvisatemi.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Podcast RSI - Storie positive di intelligenza artificiale

17 de Julho de 2023, 7:01, por Il Disinformatico
logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso www.rsi.ch/ildisinformatico (link diretto) e qui sotto.

Le puntate del Disinformatico sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: Deepfake di Elon Musk che promuove servizio di criptovalute]

La voce è quella, molto caratteristica, di Elon Musk, e il video mostra chiaramente Musk che parla davanti a un microfono, in un’ambientazione da podcast, e raccomanda un sito che nasconde una truffa. Dice che un suo amico ha avuto un’idea geniale per un servizio di scambio di criptovalute che offre le condizioni migliori e la possibilità di ottenere queste criptovalute gratis. Elon Musk cita il nome del sito e invita a visitarlo.

Ma è tutto finto: è l’ennesimo deepfake, pubblicato oltretutto su Twitter, che è di proprietà proprio di Elon Musk, da un utente con il bollino blu, uno di quelli che Twitter continua a definire “verificati” quando in realtà hanno semplicemente pagato otto dollari.

[Il testo era “An incredible crypto gift from @ElonMusk
Promo code 68z88cnh for 6.5 ETH hxxps://t.co/7su64bT4Dq pic.twitter.com/NjiJlcVUE2 — PuprpleApe.eth (@purpleapeeth) July 7, 2023]. Ho alterato intenzionalmente i link mettendo “hxxps” al posto di “https”]

Quel tentativo di truffa è rimasto online per almeno 24 ore, nonostante le ripetute segnalazioni degli utenti esperti, ed è stato visto da quasi 250.000 persone. Dodicimila utenti hanno anche cliccato su “mi piace”. Non c’è modo di sapere quante persone abbiano invece creduto al video e all’apparente sostegno di Elon Musk e abbiano quindi affidato i propri soldi ai truffatori.

And here's the deepfake video. pic.twitter.com/psDPV7SZz4

— @mikko (@mikko) July 10, 2023

[Segnalo la scheda informativa “Deepfake - come proteggersi” del Garante per la protezione dei dati italiano]

Sono numeri che dimostrano chiaramente il potere di inganno dei deepfake generati usando l’intelligenza artificiale per far dire in video qualunque cosa a persone molto note e usarle come involontari testimonial che promovono truffe [un altro caso di deepfake truffaldino è qui]. Ma questa è la stessa tecnologia che consente a Harrison Ford di apparire realisticamente ringiovanito di quarant’anni nel film più recente della saga di Indiana Jones.

[Clip: Fanfara di Indiana Jones, dalla colonna sonora di Indiana Jones e il Quadrante del Destino]

Due settimane fa, nella puntata del 30 giugno, vi ho raccontato alcune storie di disastri e orrori resi possibili dall’uso e abuso dell’intelligenza artificiale e ho promesso che avrei presentato anche i lati positivi, e le nuove opportunità di lavoro, di questa tecnologia tanto discussa.

Benvenuti dunque alla puntata del 14 luglio 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Parole, parole, parole

Come tante altre tecnologie, anche l’intelligenza artificiale si presta a usi positivi e a usi negativi: dipende con che criterio la si adopera. L’esperto di intelligenza artificiale Stuart Russell, intervenuto pochi giorni fa al vertice “AI for Good” delle Nazioni Unite tenutosi a Ginevra, riassume questo criterio in un’intervista a Swissinfo con queste parole:

[CLIP: voce inglese, coperta da voce italiana che dice “Il modello di business non è 'posso risparmiare licenziando tutto il mio personale?' Il modello di business è che ora possiamo fare cose che prima non potevamo fare”]

Ne avete appena ascoltato un esempio concreto: con i metodi tradizionali e i tempi di produzione di un podcast come questo, scomodare uno speaker solo per fargli leggere in italiano le poche parole del professor Russell sarebbe stato un problema organizzativo e logistico ingestibile. Con l’intelligenza artificiale, invece, la voce può essere generata direttamente da me in una manciata di minuti usando un software come Speechify. Non è lavoro tolto a uno speaker professionista: è lavoro che uno speaker non avrebbe potuto fare e che permette di fare appunto una cosa che prima non si poteva fare: il cambio di voce permette di indicare chiaramente che si tratta di una citazione [le alternative sono cercare di far capire quando inizia e finisce la citazione usando il tono della voce, cosa che mi riesce malissimo, oppure ricorrere a formule poco eleganti come dire “inizio citazione” e “fine citazione”].

Fra l’altro, anche la voce inglese in sottofondo è generata [sempre con Speechify], eppure ha una cadenza molto naturale. Se non vi avessi detto che non è quella del professor Russell, avreste notato che era sintetica? Probabilmente no, e questo crea obblighi etici di trasparenza per chi usa queste voci giornalisticamente. Nulla di nuovo, in realtà, visto che da sempre nel giornalismo si usa far ridire da uno speaker le parole dette da una persona di cui si vuole proteggere l’identità, e si avvisa il pubblico di questo fatto. Tutto qui.

Un altro esempio di cosa che prima non si poteva fare arriva da Chequeado, che è un’organizzazione senza scopo di lucro che si impegna a contrastare la disinformazione nel mondo ispanofono. Ha creato un software di intelligenza artificiale che legge automaticamente quello che viene pubblicato nei social network, trova le notizie vere o false che si stanno diffondendo maggiormente e allerta i fact-checker, i verificatori umani, affinché possano controllarle. Questo permette alla redazione di Chequeado di concentrarsi sul lavoro di verifica e quindi di essere più efficiente e tempestiva nelle smentite delle notizie false. È un bell’esempio positivo, che si contrappone alle notizie di testate giornalistiche [CNET Money] che pubblicano articoli generati dall’intelligenza artificiale senza dirlo apertamente ai propri lettori e licenziano i redattori.

L’intelligenza artificiale offre anche un altro tipo di supporto positivo al giornalismo e a molti altri settori della comunicazione: la trascrizione automatica del parlato. Se frequentate YouTube, per esempio, avrete notato i sottotitoli generati automaticamente, a volte con risultati involontariamente comici. Ma ci sono software specialistici, come per esempio Whisper di OpenAI (la stessa azienda che ha creato ChatGPT), che sono in grado di trascrivere quasi perfettamente il parlato, e di farlo in moltissime lingue, con tanto di punteggiatura corretta e riconoscimento dei nomi propri e del contesto.

Invece di spendere ore a trascrivere manualmente un’intervista, chi fa giornalismo può affidare la prima stesura della trascrizione all’intelligenza artificiale e poi limitarsi a sistemarne i pochi errori [l’ho fatto proprio ieri per sbobinare un’intervista di ben 35 minuti di parlato che spero di poter pubblicare presto]. Gli atti dei convegni, che prima richiedevano mesi o spesso non esistevano affatto perché erano un costo insostenibile, ora sono molto più fattibili. Milioni di ore di interviste e di parlato di programmi radiofonici e televisivi storici oggi sono recuperabili dall’oblio, e una volta che ne esiste una trascrizione diventano consultabili tramite ricerca di testo, e diventano accessibili anche a chi ha difficoltà di udito, tanto che a New York un’emittente pubblica, WNYC, ha creato un prototipo di radio per i sordi, in cui le dirette radiofoniche vengono trascritte in tempo reale dal software addestrato appositamente. Tutte “cose che prima non si potevano fare”, per citare di nuovo il criterio del professor Russell, o che si potevano fare solo con costi spesso insostenibili.

E poi c’è tutto il mondo della traduzione e della programmazione. Software di intelligenza artificiale specializzati, come Trados o DeepL o Github Copilot, non sostituiscono la persona competente che traduce o scrive codice, ma la assistono nella parte tediosa e meccanica del lavoro, per esempio proponendo frasi o funzioni già incontrate in passato o segnalando potenziali errori di sintassi, grammatica e coerenza. Ma la decisione e il controllo finale devono restare saldamente nelle mani della persona esperta, altrimenti l’errore di programmazione imbarazzante sarà inevitabile e la città di Brindisi rischierà di diventare Toast, come è successo sul sito della recente campagna Open to Meraviglia del Ministero del Turismo italiano.

Produttività e accessibilità

Google ha presentato pochi giorni fa uno studio sull’impatto economico dell’intelligenza artificiale nel mondo del lavoro. È dedicato al Regno Unito, ma contiene alcuni princìpi applicabili a qualunque economia di dimensioni analoghe.

  • Il primo principio è che l’uso dell’intelligenza artificiale può far risparmiare oltre 100 ore di lavoro ogni anno al lavoratore medio, e questo costituirebbe il maggior aumento di produttività da quando fu introdotta la ricerca in Google.

  • Il secondo principio è che l’intelligenza artificiale può far risparmiare a medici e docenti oltre 700.000 ore l’anno di tedioso lavoro amministrativo in un’economia come quella britannica. Anche cose a prima vista banali, come la composizione di una dettagliata mail di richiesta di rimborso, portano via tempo e risorse mentali, se bisogna farle tante volte al giorno, e strumenti come Workspace Labs di Google permettono di offrire assistenza in questi compiti.

  • Il terzo principio, forse il più significativo, è che questa tecnologia, se usata in forma assistiva, permetterebbe a oltre un milione di persone con disabilità di lavorare, di riconquistare la propria indipendenza e di restare connesse al mondo che le circonda.

L’intelligenza artificiale consente anche di analizzare ed elaborare enormi quantità di dati riguardanti la protezione dell’ambiente, che sarebbero altrimenti impossibili da acquisire e gestire. L’azienda britannica Greyparrot, per esempio, usa l’intelligenza artificiale per riconoscere in tempo reale i tipi di rifiuti conferiti in una cinquantina di siti di riciclaggio sparsi in tutta Europa, tracciando circa 32 miliardi di oggetti e usando questi dati per permettere alle pubbliche amministrazioni di sapere quali rifiuti sono più problematici e consentire alle aziende di migliorare l’impatto ambientale delle proprie confezioni.

Passando a esempi più frivoli ma comunque utili a modo loro, l’intelligenza artificiale è uno strumento potente, e anche divertente, contro la piaga delle telefonate indesiderate di telemarketing e dei truffatori. La Jolly Roger Telephone Company è una piccola ditta californiana che permette ai suoi utenti di rispondere automaticamente a queste chiamate con voci sintetiche, pilotate da ChatGPT [CLIP in sottofondo: chiamata fra truffatore che crede di parlare con una persona anziana con difficoltà di attenzione e paranoia e per un quarto d’ora cerca di farsi dare i dati della sua carta di credito]. Tengono impegnati i televenditori e gli imbroglioni con conversazioni molto realistiche e basate sul contesto, rispondendo a tono ma senza mai dare informazioni personali.

Per un paio di dollari al mese, argomenta il creatore del servizio, Roger Anderson, si può impedire a questi scocciatori di importunare altre persone e colpire nel portafogli i criminali che tentano truffe e le aziende che fanno telemarketing spietato, e come bonus si ottengono registrazioni esilaranti delle chiamate, che rivelano chiaramente che spesso chi chiama crede di parlare con una persona vulnerabile e la tratta come un pollo da spennare senza pietà. Lo so, prima o poi anche chi fa truffe e vendite telefoniche si armerà di queste voci sintetiche, e a quel punto il cerchio si chiuderà.

Google, invece, ha presentato la funzione Try On, che permette a una persona di provare virtualmente un capo di vestiario visto online: parte da una singola immagine del capo e la manipola con un modello basato sull’intelligenza artificiale per applicarla a un corpo virtuale simile a quello dell’utente, mostrando fedelmente come l’indumento cade, si piega e aderisce al corpo. In questo modo permette di ridurre i dubbi e le incertezze tipiche di quando si compra vestiario online.

L’intelligenza artificiale, insomma, è utile quando non viene usata come sostituto delle persone, ma lavora come assistente di quelle persone per potenziarle, e va adoperata in modo consapevole, senza considerarla una divinità infallibile alla quale prostrarsi, come propongono per esempio -- non si sa quanto seriamente -- gli artisti del collettivo Theta Noir o vari altri gruppi di tecnomisticismo online.

Ma misticismi salvifici a parte, c’è un problema molto concreto che mina alla base tutte queste promesse dell’intelligenza artificiale.

La spada di Damocle

Ai primi di luglio l’attrice comica e scrittrice statunitense Sarah Silverman, insieme ad altri due autori, ha avviato una class action contro OpenAI e Meta, argomentando che i loro servizi di intelligenza artificiale violano il copyright a un livello molto fondamentale, perché includono tutto il testo dei libri di questi autori e dell’attrice, e di circa 290.000 altri libri, senza aver pagato diritti e senza autorizzazione.

Questi servizi si basano sulla lettura ed elaborazione di enormi quantità di testi di vario genere. OpenAI e Meta non hanno reso pubblico l’elenco completo dei testi usati, ma gli autori hanno notato che ChatGPT è in grado di riassumere il contenuto di molti libri con notevole precisione e quindi questo vuol dire che li ha letti. Il problema è che secondo l’accusa li ha letti prendendoli da archivi piratati. In parole povere, queste aziende starebbero realizzando un prodotto da vendere usando il lavoro intellettuale altrui senza averlo pagato [BBC; Ars Technica].

La presenza di opere protette dal copyright all’interno dei software di intelligenza artificiale sembra confermata anche da un’altra osservazione piuttosto tecnica. Molto spesso si pensa che i generatori di immagini sintetiche, come DALL-E 2 o Stable Diffusion, creino immagini originali ispirandosi allo stile delle tante immagini che hanno acquisito, ma senza copiarle pari pari: nella loro acquisizione avrebbero per così dire riassunto l’essenza di ciascuna immagine, un po’ come un artista umano si ispira legittimamente a tutte le immagini che ha visto nel corso della propria vita senza necessariamente copiarle.

Ma un recente articolo scientifico intitolato Extracting Training Data from Diffusion Models, dimostra che in realtà è possibile riestrarre quasi perfettamente le immagini originali da questi software. Questo significa che se un generatore è stato addestrato usando immagini di persone, magari di tipo medico o comunque personale o privato, è possibile recuperare quelle immagini, violando la privacy e il diritto d’autore [Quintarellli.it].

I ricercatori sottolineano che il problema riguarda uno specifico tipo di generatore, quello basato sul principio chiamato diffusion, che è il più popolare ed efficace; altri tipi [i GAN, per esempio] non hanno questa caratteristica. Se il fenomeno fosse confermato, la scala della violazione del copyright da parte delle intelligenze artificiali sarebbe colossale e porrebbe un freno drastico al loro sviluppo esplosivo commerciale. Per ora, però, questo sviluppo continua, e al galoppo: Elon Musk ha appena annunciato x.AI, una nuova azienda di intelligenza artificiale il cui obiettivo leggermente ambizioso è (cito) “comprendere la vera natura dell’universo”.

La questione di dove ci sta portando questo sviluppo poggia insomma su due pilastri: uno è il modo in cui scegliamo di usare queste intelligenze artificiali, per fornire nuove opportunità creative e di lavoro o per sopprimerle; e l’altro è il modo in cui vengono generate queste intelligenze, usando dati pubblicamente disponibili e non privati oppure attingendo ad archivi di provenienza illegittima stracolmi di informazioni sensibili. Forse, prima di tentare di comprendere la vera natura dell’universo, dovremmo concentrarci su questi concetti più semplici.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Mi tocca fare un po’ di body hacking: installo cristallini nuovi - terza parte

15 de Julho de 2023, 13:27, por Il Disinformatico

Segue dalla prima parte e dalla seconda parte.

Piccolo aggiornamento sul mio body hacking (intervento di sostituzione del cristallino): va tutto bene e finalmente posso andare al cinema a vedere un film nitidamente (ho scelto Indiana Jones e il Quadrante del Destino). I puntini scuri nel campo visivo sono scomparsi, la guida notturna è tornata a essere un piacere e il bagliore luminoso stellato al centro del campo visivo è diventato quasi impercettibile.

La vista dell’occhio operato è decisamente migliore di quella dell’occhio non ancora operato (per il quale l’intervento è previsto per i primi di settembre). A parte una leggera striatura luminosa a ore 11 e a ore 5 quando guardo oggetti luminosi su fondo scuro (fanali, lampioni, la Luna), la vista è tornata com’era anni fa, prima che io iniziassi a mettere gli occhiali, che ora indosso solo per il lavoro a distanza ravvicinata (per leggere o guardare lo schermo del computer).

Adesso devo decidere cosa fare per il secondo occhio (il destro). La procedura standard consisterebbe nell’installare anche lì un cristallino artificiale dello stesso tipo già installato nel sinistro, ossia una lente che mette a fuoco da circa un metro fino all’infinito (il cristallino artificiale non ha accomodamenti come li ha invece il cristallino naturale), ma mi sto accorgendo che l’occhio non operato vede sfuocato da lontano e a fuoco da vicino (almeno di giorno) e che nonostante io abbia in questo momento due occhi che mettono a fuoco a distanze differenti non ho alcun fastidio o disorientamento: anzi, vedo bene sia gli oggetti lontani, sia quelli vicini. E quindi sto considerando l’idea di installare un cristallino che metta a fuoco da vicino, in modo da avere un occhio per la visione di oggetti lontani e l’altro per quella degli oggetti vicini. In questo modo non dovrei indossare occhiali praticamente mai.

Ho chiesto al medico che mi sta seguendo, e mi ha detto che sì, c’è gente che lo fa; è solo questione di preferenze personali. Ma ovviamente non ci sono garanzie su come il mio cervello elaborerà due immagini con focalizzazioni così dissimili. Per ora se la sta cavando bene, tutto sommato, ma va detto che il cristallino naturale che ho ancora è in grado di regolare la propria messa a fuoco, mentre un cristallino artificiale non potrà farlo. Mal che vada, comunque, metterei gli occhiali per correggere la “miopia” del secondo cristallino. Chissà che effetto farebbe con i visori per realtà virtuale o con gli occhialini per il cinema 3D. Ci devo pensare.

Nel frattempo è scomparso l’effetto Pulfrich (non vedo più in 3D le immagini 2D con movimenti da sinistra a destra) e ho notato una particolarità dell’occhio operato: quando lo muovo di scatto, percepisco una leggera oscillazione dell’immagine, che si stabilizza quasi subito. Anche questo, mi dice il medico, è normale. L’effetto è molto insolito, non fastidioso, e ho provato a documentarlo con un paio di video ripresi usando semplicemente una webcam con una lente d’ingrandimento apposita. Se guardate bene, dovreste intravedere il bordo della lente artificiale (un circolino più piccolo rispetto alla pupilla) e l’oscillazione dell’umor acqueo sotto la cornea (una sorta di “effetto budino di gelatina”).

I video sono stati girati rispettivamente 7 e 22 giorni dopo l’intervento. Anche se vista da fuori l’oscillazione può sembrare impressionante, io in realtà non la noto affatto, salvo in particolari condizioni di luce (per esempio quando ho una luce laterale molto intensa), probabilmente per via della cecità saccadica, ossia la breve interruzione della visione che si ha normalmente ogni volta che si sposta lo sguardo.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Lo “svapo” usa e getta butta in discarica l’equivalente di 1200 batterie di auto elettriche ogni anno nel Regno Unito

12 de Julho de 2023, 12:46, por Il Disinformatico

Le sigarette elettroniche usa e getta contengono una batteria al litio, che in teoria sarebbe ricaricabile ma viene invece buttata via quando si scarica. Il litio che finisce così in discarica in un anno nel Regno Unito equivale a quello necessario per fabbricare circa 1200 batterie per auto elettriche, secondo i dati del Bureau of Investigative Journalism. Oltre allo spreco demenziale c’è anche il rischio di incendi quando le batterie vengono schiacciate dai veicoli di trasporto dei rifiuti.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Threads supera i 100 milioni di iscritti in 5 giorni. Intanto Twitter perde traffico

12 de Julho de 2023, 12:23, por Il Disinformatico

Mark Zuckerberg ha annunciato che Threads ha superato il traguardo dei 100 milioni di iscritti, superando così anche il record storico di velocità di crescita di un servizio online (nel senso del tempo richiesto per arrivare a 100 milioni di utenti), che finora spettava a ChatGPT.

Twitter, invece, nei primi due giorni di disponibilità al pubblico di Threads ha perso il 5% di traffico rispetto agli stessi giorni della settimana precedente e l’11% rispetto a un anno fa.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Tags deste artigo: disinformatico attivissimo