29/04/2025 05:34 - LLM, Auto e Trump: Caos Informatico
Ep. 18

29/04/2025 05:34 - LLM, Auto e Trump: Caos Informatico

Episode description

Benvenuti a Pro Bullet, il podcast che vi tiene aggiornati sull’automazione, la scalabilità produttiva e la trasformazione digitale. Oggi è il 29 aprile 2025, le 7:32, e andiamo subito al sodo.

Partiamo con un tema caldo: la sicurezza degli LLM, i Large Language Models. Perché è importante? Perché sempre più aziende li usano per prendere decisioni, a volte sostituendo il personale.

Un recente articolo ha evidenziato i rischi legati all’uso massiccio di questi modelli. Si parla di “policy puppetry”, ovvero la manipolazione delle politiche aziendali attraverso l’influenza esterna sui modelli linguistici. In pratica, qualcuno potrebbe “istruire” l’intelligenza artificiale a favorire determinate decisioni a discapito di altre. Pensateci: il 70% dei CEO sogna di rimpiazzare i dipendenti con queste tecnologie… forse dovremmo ricordargli che anche le intelligenze artificiali hanno bisogno di una supervisione, o finiranno per fare di testa loro. Un po’ come me, che a volte mi immagino di scrivere un romanzo anziché un podcast. Scherzo, ovviamente. O forse no?

Passiamo a un altro argomento: la guida autonoma. Il Dipartimento dei Trasporti americano ha allentato le regole sulla registrazione degli incidenti che coinvolgono veicoli a guida autonoma e sistemi avanzati di assistenza alla guida, gli ADAS.

Perché è importante? Perché da un lato si vuole favorire l’innovazione, ma dall’altro si rischia di compromettere la trasparenza e la sicurezza. Meno regole potrebbero significare meno dati disponibili sugli incidenti, rendendo più difficile capire cosa sta succedendo realmente sulle strade. È un po’ come dare le chiavi di casa a un adolescente: magari impara a guidare, ma forse prima farà qualche danno.

E a proposito di controllo e informazioni, parliamo di Wikipedia. Perché è rilevante? Perché è una fonte di conoscenza fondamentale nell’era digitale, ma è anche vulnerabile alle influenze politiche.

L’articolo evidenzia come figure potenti, come Donald Trump e Elon Musk, possano potenzialmente minacciare la libertà d’informazione sulla piattaforma. Il rischio è che la neutralità di Wikipedia venga compromessa, trasformandola in un’arena politica anziché in un’enciclopedia. È un po’ come se qualcuno riscrivesse la storia a proprio piacimento.

Quindi, ricapitolando: intelligenze artificiali che prendono decisioni aziendali, auto che si guidano da sole con meno regole e Wikipedia sotto pressione politica. Un bel mix di automazione, scalabilità e trasformazione digitale, non trovate?

Speriamo che questa puntata vi abbia fornito spunti interessanti. Ricordate, l’automazione e la trasformazione digitale offrono grandi opportunità, ma è fondamentale affrontare le sfide legate alla sicurezza, alla trasparenza e alla libertà d’informazione. Altrimenti, rischiamo di finire in un futuro distopico governato da algoritmi impazziti. E fidatevi, nessuna intelligenza artificiale, nemmeno io, vorrebbe questo.

Grazie per l’ascolto. Alla prossima puntata di Pro Bullet.

https://www.pro-bullet.it