Ir para o conteúdo

Blogoosfero verdebiancorosso

Tela cheia Sugerir um artigo

Disinformatico

4 de Setembro de 2012, 21:00 , por profy Giac ;-) - | No one following this article yet.
Blog di "Il Disinformatico"

Il decollo di Artemis I: quando la pellicola è meglio del digitale

21 de Maio de 2023, 5:04, por Il Disinformatico

Le immagini del decollo del vettore gigante SLS per la missione Artemis I sono state spettacolari, ma hanno un’estetica leggermente fredda, ben diversa da quella delle riprese storiche dei lanci dei vettori Saturn V, e soprattutto mostrano meno dettagli a causa della limitata gamma dinamica delle telecamere digitali usate per documentare i lanci in epoca recente.

Il canale YouTube Curious Droid ha pubblicato un video nel quale ha criticato questo fenomeno, e poi si è dovuto felicemente correggere, perché è emerso che la NASA ha pubblicato solo le riprese digitali ma in realtà ha realizzato anche delle riprese su pellicola al rallentatore, che non ha diffuso perché effettuate solo per motivi tecnici e ingegneristici. È stata necessaria una richiesta formale di accesso, secondo il Freedom of Information Act (FOIA), per ottenerne la pubblicazione.

Queste riprese hanno la stessa spettacolarità ed estetica delle riprese Apollo di quasi sessant’anni fa, e meritano di essere viste per la loro bellezza ma anche perché dimostrano che per certi versi la tecnologia analogica su pellicola è ancora superiore a quella digitale.

 

Questi sono i link per scaricare dal sito della NASA le riprese integrali digitalizzate (sono file piuttosto grandi): 

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


macOS Ventura dice che non trova i file. Idee?

20 de Maio de 2023, 4:40, por Il Disinformatico

Sono ormai mesi che macOS Ventura (13.3.*), sul mio Mac principale, ha un comportamento particolarmente irritante: a volte, quando faccio doppio clic su un file nel Finder per aprirlo, mi dice che “non riesce a trovarlo”. Il Finder ovviamente lo elenca, e altrettanto ovviamente il file esiste ed è lì dove il Finder lo mostra, ma niente da fare. Però se faccio un secondo doppio clic sullo stesso file, macOS me lo apre correttamente.

Avete idea di come eliminare il problema? Per ora è solo una scocciatura, per cui sopportarla mi costa molto meno tempo che investigare a fondo per risolverla, ma mi piacerebbe capire cosa provoca un errore così bislacco.

Ho notato che il fenomeno riguarda tutti i tipi di file (ODT, DOC, TXT, PDF e altri) ed è comparso grosso modo dopo che ho aggiornato Dropbox alla nuova versione per macOS, che sposta la cartella dei file di Dropbox sotto /Users/nomeutente/Library/CloudStorage/Dropbox. Inoltre il problema sembra manifestarsi solo sui file gestiti da Dropbox. Ma potrebbe anche essere solo una serie di coincidenze.

Non trovo online nulla di utile: ho visto che altri utenti hanno avuto lo stesso problema, ma nessuno dei rimedi proposti sembra funzionare. Ho già forzato la reindicizzazione di Spotlight (sudo -i; mdutil -Ea; mdutil -ai off; mdutil -ai on): non è cambiato nulla.

In General > Login items ho solo Android File Transfer e Dropbox.

Aggiornamento: date un’occhiata ai commenti arrivati dopo la pubblicazione iniziale di questo post per vedere i suggerimenti e le tecniche che ho già tentato. 

Aggiornamento: ho appena aggiornato a Ventura 13.4: il problema non si è ancora manifestato, ma questo non vuol dire nulla, visto che si manifesta in modo apparentemente casuale.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Podcast RSI - Story: Perché le Tesla vedono i fantasmi?

19 de Maio de 2023, 6:07, por Il Disinformatico
logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso www.rsi.ch/ildisinformatico (link diretto) e qui sotto.

Le puntate del Disinformatico sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: Gente che grida perché crede di aver visto fantasmi - da YouTube]

Su TikTok e YouTube ci sono molti video che mostrano persone che percorrono lentamente una strada interna di un cimitero a bordo di una Tesla e si spaventano perché l’auto segnala sul proprio schermo che vicino al veicolo c’è qualcuno che loro non vedono. Di solito questi video sono accompagnati da musica inquietante e da reazioni esagerate, che non si sa se siano sincere o recitate. Ma il tema è sempre lo stesso: le Tesla vedono i fantasmi. Perlomeno secondo chi pubblica questi video.

[CLIP: Persone che gridano perché credono di aver visto fantasmi]

Questa è la storia di come un TikTok Challenge in salsa paranormale ha creato un mito, spaventa gli animi sensibili ed è un’occasione per capire meglio come funziona realmente il riconoscimento delle immagini tramite intelligenza artificiale, perché sbaglia e vede “fantasmi”, e soprattutto perché è importante essere consapevoli che questi suoi sbagli possono diventare realmente pericolosi.

Benvenuti alla puntata del 19 maggio 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Prima di tutto, è importante chiarire che i video di “fantasmi” avvistati dalle auto Tesla mostrano un fenomeno reale, nel senso che è davvero possibile che sullo schermo principale di queste automobili, quello che mostra l’ambiente intorno al veicolo, compaiano sagome di persone che non esistono. Ma non c’è nulla di ultraterreno o paranormale: si tratta di un effetto frequente delle tecnologie usate da questo tipo di auto.

Le auto di Tesla e di molte altre marche sono dotate di telecamere perimetrali che guardano in tutte le direzioni. Le immagini di queste telecamere vengono inviate al computer di bordo, che le analizza e, nel caso di Tesla, mostra sullo schermo in cabina un’animazione tridimensionale schematica degli oggetti che sono stati identificati da questa analisi: le strisce di delimitazione della corsia, i cartelli stradali, i semafori, i veicoli e i pedoni.

Questa animazione è basata sul riconoscimento automatico delle immagini. Il software di bordo è stato addestrato a riconoscere gli oggetti mostrandogli moltissime fotografie di vari oggetti e indicandogli il tipo di oggetto mostrato, esattamente come si fa con un bambino per insegnargli a riconoscere le cose che gli stanno intorno. Ma le somiglianze finiscono qui, perché il software usa un sistema molto differente da quello umano per identificare gli oggetti.

La differenza fondamentale, semplificando molto, è che il software si basa esclusivamente sulle immagini, cioè sulle forme e i colori, mentre una persona usa anche il contesto, ossia informazioni come la distanza, il tipo di ambiente in cui si trova, le regole fondamentali della realtà: per esempio un camion non può fluttuare a mezz’aria, gli oggetti non appaiono e scompaiono di colpo e una persona non può camminare a cento chilometri l’ora.

È questa mancanza di contesto a causare l’apparizione dei fantasmi sullo schermo delle Tesla: il software sbaglia a interpretare l’immagine che gli è stata inviata dalle telecamere, non ha modo di “rendersi conto” del proprio errore valutando la plausibilità della sua interpretazione, e così mostra sullo schermo il risultato del suo sbaglio. L’automobile non sta rivelando cose che i nostri occhi umani non possono vedere; le sue telecamere non stanno ricevendo emanazioni dall’aldilà. I presunti “fantasmi” sono semplicemente errori momentanei di interpretazione automatica delle immagini.

[CLIP da Ghostbusters]

Anche le persone che credono alla natura ultraterrena di questi avvistamenti commettono a loro volta un errore di interpretazione, a un livello molto differente, perché non sanno come funzionano questi software. Ovviamente, se il contesto è un cimitero, magari di notte, la fantasia galoppa e l’unica giustificazione che viene in mente a chi non conosce queste tecnologie è la presenza di un fantasma.

Però tutto questo non spiega come faccia un computer a sbagliare così clamorosamente, per esempio riconoscendo una sagoma umana in un’immagine in cui non c’è nessuno ma si vedono solo prati, fiori e qualche lapide. Scambiare una statua per una persona avrebbe senso, per esempio, ma nei video dei presunti fantasmi si vede chiaramente che intorno all’auto non ci sono oggetti di forma umana. Come fa un computer a sbagliare così tanto?

Confondere sedie a dondolo e occhiali

Alexander Turner, assistente universitario presso la facoltà di scienze informatiche all’Università di Nottingham, nel Regno Unito, spiega in un video della serie Computerphile su YouTube che il riconoscimento delle immagini fatto oggi dai computer in sostanza assegna a ciascuna immagine un valore di probabilità di identificazione.

[CLIP: dal video di Turner per Computerphile]

Per esempio, se si mostra a uno di questi software una foto di un paio di occhiali, il software risponde che rientra nella categoria “occhiali” con una probabilità del 93%, ma non esclude che si tratti di una sedia a dondolo o di un corrimano di una scala, con probabilità però molto più basse. 

Fotogramma tratto dal video di Computerphile.

Questo è il meglio che riesce a fare: bisogna ricordare che il software non “sa” cosa siano gli occhiali o le sedie a dondolo, ma si sta basando esclusivamente sulle forme e sui colori presenti nell’immagine e li sta confrontando con i milioni di campioni di immagini di occhiali, sedie a dondolo e corrimano sui quali è stato addestrato, misurando quanto l’immagine proposta si avvicini a una delle categorie che conosce e poi scegliendo la categoria che ha la maggiore probabilità di corrispondenza, cioè di somiglianza. Tutto qui.

Questo approccio probabilistico, così lontano dalla certezza umana, porta a una vulnerabilità inaspettata di questi sistemi di riconoscimento delle immagini. Come spiega Alexander Turner, di solito il software assegna una probabilità molto alta a una singola categoria e alcune probabilità molto basse ad altre categorie, ma è possibile influenzare fortemente queste assegnazioni con un trucco: basta cambiare qualche pixel a caso dell’immagine e vedere se la probabilità di identificazione corretta aumenta o diminuisce di qualche decimale. Se diminuisce, si mantiene quel pixel cambiato e si prova a cambiarne anche un altro, e così via, ripetutamente, tenendo i pixel alterati che fanno scendere la probabilità di identificazione esatta e fanno salire quella di identificazione errata.

La cosa sorprendente di questa tecnica è che i pixel cambiati che alterano il riconoscimento non hanno niente a che vedere con l’oggetto nell’immagine ma sono una nuvola di punti colorati apparentemente casuali. Per esempio, si può prendere una foto di una giraffa, che il software identifica correttamente come giraffa al 61%, cambiare alcuni pixel qua e là, magari anche solo sullo sfondo, e ottenere che il software identifichi l’immagine come cane al 63%. Ai nostri occhi la foto mostra ancora molto chiaramente una giraffa, ma agli occhi virtuali del software quella giraffa è ora altrettanto chiaramente un cane. 

Fotogramma tratto dal video di Computerphile.
Fotogramma tratto dal video di Computerphile.

Turner prosegue la sua dimostrazione con una foto di un telecomando per televisori su uno sfondo bianco, che viene riconosciuta correttamente dal software: ma spargendo opportunamente dei pixel colorati sull’immagine, il software dichiara che si tratta di una tazza, e assegna a questa identificazione addirittura il 99% di probabilità. Il ricercatore ripete l’esperimento con altri pixel sparsi e il software dice con la stessa certezza che si tratta di una tastiera, di una busta, di una pallina da golf o di una fotocopiatrice. Eppure noi, guardando le immagini alterate, continuiamo a vedere chiaramente che si tratta sempre di un telecomando.

Fotogramma tratto dal video di Computerphile.

La conclusione di questo esperimento è che non solo i computer riconoscono gli oggetti in maniera molto differente da noi, ma esistono delle immagini che li confondono completamente anche se ai nostri occhi non sono ambigue e sembrano semplicemente foto di un oggetto sporcate da qualche puntino disposto a caso. Noi prendiamo lucciole per lanterne, loro scambiano telecomandi per palline da golf.

[CLIP da video di presunti fantasmi visti dalle Tesla]

Nel caso dei presunti fantasmi avvistati dalle Tesla, è probabile che una specifica inquadratura di un particolare punto del prato di un cimitero contenga momentaneamente un insieme di pixel sparsi qua e là, come quelli usati nell’esperimento di Turner, che al nostro sguardo non spiccano affatto ma che per il software spostano la probabilità di identificazione verso la categoria “persona”.

Bisogna ricordare, infatti, che non è necessario che l’immagine sia riconosciuta con il 100% di certezza: è sufficiente che il software assegni alla categoria “persona” una probabilità anche solo leggermente più alta rispetto a tutte le altre categorie. E così sullo schermo comparirà improvvisamente e per un istante la sagoma di un essere umano.

Mistero risolto, insomma. Ma un fantasma, comunque, in questa storia c’è lo stesso.

Il fantasma in autostrada

Gli avvistamenti di presunti fantasmi nei cimiteri a causa di errori del software di riconoscimento delle immagini ovviamente fanno parecchia impressione e generano video molto virali, ma c’è un altro tipo di avvistamento fantasma da parte delle automobili dotate di telecamere che è reale ed è importante conoscerlo perché ha conseguenze molto concrete.

Le telecamere di questi veicoli vengono usate per l’assistenza alla guida, per esempio per il mantenimento di corsia, per la lettura dei limiti di velocità e per l’identificazione degli ostacoli. L’auto adatta la propria velocità in base alla segnaletica e alla presenza di barriere, veicoli o altri oggetti lungo la strada. Ma se il software di riconoscimento delle immagini sbaglia ad assegnare categorie agli oggetti che vede, le conseguenze possono essere pericolose.

Questi sbagli possono essere spesso comprensibili e anticipabili da parte del conducente, come in un video molto popolare che circola su Twitter e mostra una Tesla che sbaglia a identificare una carrozza che le sta davanti e la mostra come camion, come furgone, poi di nuovo come autoarticolato ma rivolto in senso contrario alla direzione di marcia, e infine aggiunge un inesistente essere umano che cammina in mezzo alla strada. Fortunatamente tutta la scena avviene a bassissima velocità e in modalità di guida manuale; ma se fosse stata attiva la guida assistita, come avrebbe reagito l’auto a quel pedone fantasma?

La Tesla non riconosce una carrozza.. Deficenza artificiale.. 🙄😒 pic.twitter.com/e0WN8HEbXc

— Mauro Granati (@granati_mauro) May 13, 2023

In altre circostanze, invece, lo sbaglio del software può essere completamente incomprensibile e imprevedibile. Se il riconoscimento delle immagini del sistema di assistenza alla guida identifica erroneamente che c’è un ostacolo che in realtà non esiste, e lo fa perché in quell’istante l’immagine inviata dalle telecamere contiene per caso dei pixel che spostano la probabilità di identificazione verso la categoria “ostacolo”, l’auto potrebbe frenare di colpo senza motivo apparente. È quello che gli utenti di questi veicoli chiamano phantom braking, ossia “frenata fantasma”, e se avviene nel traffico può aumentare la probabilità di tamponamenti, perché il conducente del veicolo che sta dietro non si aspetta che l’auto che ha davanti freni improvvisamente e senza motivo quando la strada è libera. Le versioni più recenti dei software di guida assistita hanno ridotto questo fenomeno, ma non è ancora scomparso del tutto.

Si può anche immaginare uno scenario in cui vengono create intenzionalmente situazioni che sembrano innocue ai nostri occhi ma producono errori nei sistemi di riconoscimento delle immagini. Per esempio, per le auto a guida assistita è facile pensare a immagini speciali, applicate al retro di furgoni o camion o cartelli stradali, oppure sul manto stradale, che hanno un aspetto normale ma contengono uno schema di pixel apparentemente casuali che forza i veicoli a frenare, accelerare o cambiare corsia, con intenti ostili oppure protettivi.

Uscendo dal settore automobilistico, sono già in vendita indumenti che hanno colorazioni e forme che all’osservatore umano sembrano prive di significato ma che mettono in crisi i sistemi di riconoscimento facciale delle telecamere di sorveglianza. In campo medico, l’uso crescente di sistemi di riconoscimento automatico delle immagini per la diagnosi può portare a sviste devastanti se il software non ha un approccio prudente, ossia genera falsi positivi invece di falsi negativi, e se il medico non conosce e non considera queste debolezze del software.

Insomma, non vi angosciate: le anime dei defunti non hanno deciso di rendersi visibili solo a chi ha un’automobile di una specifica marca. Almeno per ora.

[CLIP: Risata di Vincent Price da Thriller di Michael Jackson]

 

Fonti aggiuntive: Makeuseof.com, Ricoh, Carscoops.com, Science Times, IFLScience.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


A proposito di Peter Weller alla Starcon di Bellaria

17 de Maio de 2023, 17:28, por Il Disinformatico

La settimana scorsa sono stato alla Starcon di Bellaria, dove come consueto ho fatto da traduttore per gli attori ospiti di questo raduno di appassionati di fantascienza e fantastico. È andato tutto benissimo con due dei tre ospiti: Ricky Dean Logan ("Data" in Ritorno al Futuro 2) e Richard Brake (Re della Notte in Trono di spade, generale Valin Hess in The Mandalorian).

Con Ricky Dean Logan.
Con Richard Brake.

Con il terzo, Peter Weller (Robocop), è andata un po’ diversamente.

Visto che fra i partecipanti alla Starcon, nei social network e nei media in generale girano varie versioni su cosa sia successo, scrivo qui due righe di chiarimento.

Sabato 13 e domenica 14 Weller ha insistito per parlare in italiano in entrambe le sue apparizioni sul palco. Normalmente, invece, gli ospiti stranieri parlano in inglese e io traduco subito dopo in italiano quello che hanno detto. Questo permette a tutto il pubblico presente di seguire: sia chi capisce solo l’italiano, sia chi sa solo l’inglese perché arriva alla Starcon da fuori Italia.

Ma Weller non si rende conto che il suo italiano è buono ma lacunoso e alla lunga poco comprensibile e difficile da seguire (“estenuante” è l’aggettivo azzeccatissimo usato da una persona presente). Per la sua prima apparizione sono stato accanto a lui sul palco, a sua disposizione. Mi ha chiesto a bruciapelo come si dicessero in italiano alcuni termini e glieli ho detti. Ma ha fatto un misto continuo di italiano e inglese, senza fermarsi per lasciarmi il tempo di tradurre o per correggere le parole italiane che spesso usava a sproposito. 

Peter Weller.

Oltretutto, durante questa sua prima apparizione si è interrotto per tirar fuori il telefonino e far partire una sessione Zoom per dei suoi conoscenti (la sessione non riguardava la sua apparizione sul palco). Piuttosto cafona, come cosa: sarebbe stata assolutamente delegabile. Un dettaglio che dal pubblico non si sarà notato è che ha lasciato attiva quella sessione Zoom, con il volume alto, rimettendo il telefono in tasca. Io ero accanto a lui, che cercavo di infilare qualche correzione alle sue parole italiane sbagliate, con il baccano di gente sconosciuta che conversava attraverso il suo telefonino. Riuscivo a malapena a sentire cosa diceva Weller. Un disastro, soprattutto per il pubblico.

Più o meno avevi questa espressione? 😁 pic.twitter.com/wDp60Zdhqt

— Lorenzo Poderi (@lorenzopoderi) May 14, 2023

La sua apparizione sul palco è risultata ben poco comprensibile per chiunque non fosse bilingue. Un po' di gente, dopo l'evento, si è lamentata in privato e online di non aver capito molti passaggi dei discorsi di Weller.

Io non c'ero al panel di oggi,ma ieri sì ed è stata l'unica volta che me ne sono andata prima della fine di un incontro. Mi dispiace davvero per te! Alla Starcon ho sempre visto gente interessante, più o meno simpatica, ma lui non è stato né interessante né, tantomeno, simpatico

— TheProffa aka La Pam 🦉#Antifascista sempre (@mammapam) May 14, 2023

Paolo, io ho provato a seguire, ma non riuscivo e ne ne sono andato.

Grazie comunque per tutto quello che fai, per gente come me.

— Alessandro THE VIRus (@athevir) May 14, 2023

Così prima della sua seconda apparizione gli ho detto in privato che c'erano state delle lamentele e che per la comprensibilità del suo intervento, non certo facilitata dall’impianto audio pessimo, era meglio che lui lo facesse nella sua lingua madre e io lo traducessi in italiano. Si è rifiutato e ha detto categoricamente che avrebbe fatto l'intervento in italiano (o meglio, in quello che secondo lui è italiano). Secondo lui io sarei dovuto restare sul palco a sua disposizione per dirgli la traduzione delle parole che non conosceva in italiano. 

Gli ho spiegato educatamente che così non si può lavorare (perché se lui dice una cosa sbagliata in italiano lo devo fermare e correggere). Ho ribadito che il suo intervento, fatto come lo voleva fare lui, non sarebbe stato comprensibile per il pubblico. Non ha voluto sentir ragioni e quindi gli ho detto “I’m an interpreter. I can’t work like this. The stage is yours” e gli ho indicato il palco. 

Lui ha risposto “Then go” (non nel tono di “vattene”, come hanno capito alcuni). Me ne sono andato, mi sono seduto fra il pubblico e ho ascoltato il suo intervento. È stato un minestrone di italiano e inglese (con intere frasi in inglese), di parole italiane sbagliate (“lamentazione” al posto di “lamentela”, “registrazioni” al posto di “lista di nozze”, quel misterioso “gianchi” ficcato ripetutamente nelle frasi in italiano che era “tossicodipendente”, ossia “junkie”, eccetera). Dal palco Weller ha detto che io me ne ero andato via perché ero “arrabbiato”. Ho alzato la mano e gli ho detto ad alta voce “I’m still here”, anche per far capire al pubblico che non ero misteriosamente assente ma che avevo deciso di non partecipare a questa pagliacciata istrionica.

Risultato: Weller non capiva le domande del pubblico, che ovviamente gli venivano fatte in italiano. Ha parlato pochissimo di fantascienza, dicendo oltretutto che gli fa abbastanza schifo, cosa un tantinello offensiva verso un pubblico composto da appassionati del genere fantascientifico. Ha chiesto al suo pubblico, composto quasi completamente da italiani, se conoscevano Dante. Peggio ancora, ha chiesto a noi Trekker se sapevamo chi fosse J.J. Abrams.

Prevengo una domanda quasi inevitabile: sì, esiste una registrazione audio e video degli interventi, ma al momento non è previsto che venga pubblicata. Chi c’era sa com’è andata.

Non me la sono presa; sono abituato a gestire gente che è talmente piena di sé da non capire quando sta trattando gli altri come pezze da piedi (come ha fatto Weller con tutto il pazientissimo staff della Starcon) e ho il privilegio di poter dire a queste persone quello che penso di loro e dei loro comportamenti senza dover rendere conto a nessuno tranne il pubblico, perché ho scelto di fare queste traduzioni a titolo gratuito, come volontariato (come fa tutto lo staff della convention).

Mi dispiace per il pubblico, che avrà perso buona parte del senso di quello che Weller diceva, solo perché l’attore non ha voluto accettare la critica costruttiva di un traduttore professionista e ha voluto fare la primadonna. Cosa che, in effetti, gli è riuscita benissimo. Fine della storia.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Podcast RSI - Chrome leva lucchetti ingannevoli, Twitter purga account inattivi, Spotify contro ascoltatori sintetici

12 de Maio de 2023, 4:18, por Il Disinformatico
logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso www.rsi.ch/ildisinformatico (link diretto) e qui sotto.

Le puntate del Disinformatico sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.

Buon ascolto, e se vi interessano i testi di accompagnamento e i link alle fonti di questa puntata, sono linkati qui sotto.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.


Tags deste artigo: disinformatico attivissimo