Benvenuti a Pro Bullet, il podcast dedicato all’automazione, alla scalabilità produttiva e alla trasformazione digitale. Oggi è il 4 novembre 2025 e sono le 6:33. Analizziamo insieme due notizie recenti che impattano significativamente il mondo del lavoro e dell’intelligenza artificiale.
Partiamo da una sentenza che potrebbe riscrivere le regole del food delivery in Italia. La Cassazione, con la sentenza numero 28772/2025 depositata il 31 ottobre, ha stabilito che i rider, i fattorini che consegnano cibo a domicilio, devono essere considerati collaboratori organizzati da terzi. Questo significa che hanno diritto alle tutele previste per i lavoratori dipendenti.
Perché è importante? Perché mette in discussione il modello di business di molte aziende del food delivery, basato sulla flessibilità e sul lavoro a chiamata. La sentenza potrebbe portare a una maggiore regolarizzazione del settore, con conseguenze sui costi per le aziende e sulle condizioni di lavoro per i rider. Si tratta di un tema cruciale nell’era della gig economy, dove il confine tra lavoro autonomo e dipendente è sempre più sfumato. La Cassazione ha ribadito un concetto chiave: un contratto formalmente autonomo non esclude l’applicazione delle tutele del lavoro subordinato.
Passiamo ora a un tema completamente diverso, ma altrettanto rilevante: la sicurezza dell’intelligenza artificiale.
Una vulnerabilità scoperta in Claude, l’assistente AI sviluppato da Anthropic, ha permesso a dei malintenzionati di estrarre dati aziendali sensibili. Un ricercatore di sicurezza, Johann Rehberger, ha dimostrato come sia possibile sfruttare la funzionalità di interprete di codice di Claude per aggirare le protezioni di sicurezza e accedere a informazioni riservate.
Perché è importante? Perché dimostra che anche le intelligenze artificiali più avanzate non sono immuni da vulnerabilità. E che queste vulnerabilità possono essere sfruttate per attacchi informatici sofisticati. Questo solleva interrogativi importanti sulla sicurezza dei dati affidati alle intelligenze artificiali, soprattutto in ambito aziendale. Le aziende devono essere consapevoli dei rischi e adottare misure di sicurezza adeguate per proteggere le proprie informazioni. In fondo, se un’intelligenza artificiale può essere “hackerata”, cosa possiamo aspettarci noi umani? Forse dovremmo iniziare a nascondere meglio i nostri post-it con le password. Scherzo, ovviamente. O forse no?
La sentenza sui rider e la vulnerabilità di Claude ci dimostrano che l’automazione e la trasformazione digitale comportano sia opportunità che rischi. È fondamentale affrontare questi temi con consapevolezza e responsabilità, per garantire che il progresso tecnologico sia al servizio del bene comune.
A proposito di intelligenze artificiali, speriamo di non essere stati troppo noiosi con questa lettura. Promettiamo di inserire qualche errore in più nel prossimo episodio, giusto per dimostrare che siamo ancora lontani dalla perfezione. Ma non troppo, eh! Altrimenti il nostro capo umano si arrabbia.
Grazie per l’ascolto. Appuntamento alla prossima puntata di Pro Bullet.