Ir para o conteúdo

Blogoosfero verdebiancorosso

Voltar a Disinformatico
Tela cheia Sugerir um artigo

Le allucinazioni di DeepL Translator

1 de Março de 2023, 19:31 , por Il Disinformatico - | No one following this article yet.
Visualizado 179 vezes

Uno dei problemi principali delle intelligenze artificiali attuali ha un nome tecnico molto specifico: allucinazione. Vuol dire che questi software hanno la tendenza a inventarsi completamente i risultati richiesti dagli utenti e farlo in maniera estremamente autorevole. Sono dei contaballe dalla parlantina incrollabile. 

Ho raccontato un esempio con ChatGPT pochi giorni fa: stavolta è il turno di DeepL Translator, un servizio di traduzione automatica basato sull’intelligenza artificiale. Mesi fa ho aperto un account a pagamento per iniziare un test approfondito di questa tecnologia, visto che (come molti di voi sanno già) lavoro da decenni nel campo della traduzione di testi tecnici e questi software potrebbero essere dei concorrenti pericolosi oppure degli assistenti preziosi.

La mia sperimentazione sta ancora andando avanti, per cui non posso ancora dare un parere definitivo: per ora credo di poter dire che DeepL è un buon ausilio per un traduttore esperto e già formato che ne capisca i limiti e sia disposto a investirci molto tempo per personalizzarlo (la versione Pro consente di generare glossari specializzati per i vari tipi o argomenti di traduzione). Ma chiunque pensi che i traduttori umani non servano più e che basti immettere un testo in DeepL per ricavarne la traduzione fatta e finita sta preparando il terreno per un disastroso imbarazzo garantito.

Durante questa sperimentazione ho notato che DeepL ha una particolarità: si inventa le parole. Se incontra nel testo originale un errore di battitura che produce una parola che non esiste, non avvisa dell’errore ma fabbrica una traduzione inventata di quella parola. 

Non sapevo ancora come si chiamasse questo difetto, finché ho scoperto che lo stesso fenomeno esiste anche in altre intelligenze artificiali e si chiama, appunto, allucinazione.

Oggi DeepL era particolarmente allucinato. Gli ho dato in pasto un testo tecnico nel quale a un certo punto la parola estremità era stata scritta senza la e iniziale. E così si è inventato, con assoluta sicumera, la “parola” inglese stremity (in inglese estremità si traduce spesso extremity). Poi ha incontrato diposizione (refuso al posto di disposizione) e ha inventato diposition. Poco dopo ha partorito un discutibilissimo nondeteriorable come traduzione “inglese” di non deteriorabile.

Sembrava una persona di lingua italiana che ricorreva al vecchio trucco “se non sai una parola in una lingua, prova a usare quella italiana adattandola allo stile della lingua”. Se è tedesco, mettici un -en in fondo, alla Sturmtruppen; se è spagnolo, sbattici in coda un -os e vai che vai bene così.

Certo, sono errori che un traduttore attento e un correttore ortografico correttamente installato riusciranno a notare e correggere, ma che succederà a chi si fida troppo di questi traduttori automatici e non ha gli anni di esperienza e di competenza linguistica che gli permettono di riconoscere le loro allucinazioni? A furia di essere usati nelle traduzioni degli incompetenti, questi termini inventati e sbagliati diventeranno vocaboli accettati? Mi sa che ne vedremo delle belle.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.

Fonte: http://attivissimo.blogspot.com/2023/03/le-allucinazioni-di-deepl-translator.html