L’AI nel 2030 sarà sostenibile? Solo se rispetterà certe condizioni

Dataset più piccoli, algoritmi equi e trasparenti. E una governance consapevole per affrontarne gli aspetti controversi. Questa la strada indicata all’evento ASviS al Salone del Libro. Presentato il nuovo volume di FUTURAnetwork.

di Andrea De Tommasi

martedì 20 maggio 2025
Tempo di lettura: min

Come sarà l’intelligenza artificiale nel 2030? E che rapporto c’è tra AI e sostenibilità? Quest’ultima sarà aiutata dall’AI oppure messa da parte?”. Così il giornalista Luca De Biase ha aperto l’evento ASviS “Oltre l’algoritmo: intelligenza artificiale e futuro della società”, che si è tenuto il 16 maggio al Salone del Libro di Torino nell’ambito del Festival dello Sviluppo Sostenibile. L’incontro ha riunito esperti, accademici e rappresentanti del mondo industriale per riflettere sull’impatto dell’AI sulle varie dimensioni della sostenibilità.

Flavio Natale, redattore di FUTURAnetwork, sito dell'ASviS che esplora i diversi futuri per un domani sostenibile, ha presentato “Mille schegge di intelligenza artificiale”, libro, scaricabile gratuitamente, che indaga effetti e possibili evoluzioni dell’AI su aspetti cruciali della società. La seconda parte del volume raccoglie conversazioni tra diverse intelligenze artificiali, ideate e condotte da Pietro Speroni di Fenizio, che mostrano come l’addestramento differente dei modelli influenzi profondamente le loro risposte. “Questo libro va letto come un frammento del cammino velocissimo che stiamo attraversando,” ha detto Natale, che ha anche ricordato l’iniziativa Ecosistema Futuro, promossa dall’ASviS per portare i “futuri” al centro del dibattito politico e culturale. “Difficile prendere una posizione netta sull’AI: ad esempio consuma molte risorse, ma sta anche aiutando a risparmiarle”.


LEGGI ANCHE - “Mille schegge di intelligenza artificiale”: il nuovo libro di FUTURAnetwork sull’AI


Allegra De Filippo, docente dell’Università di Bologna, ha raccontato la propria esperienza di ricerca nell’ambito dell’AI applicata alla sostenibilità ambientale. “Abbiamo sviluppato algoritmi per ottimizzare reti energetiche. Pensiamo al Goal 7 dell’Agenda 2030 sull’energia pulita e accessibile: l’AI può aiutarci a integrare fonti rinnovabili, simulare scenari di disastri ambientali e studiare la propensione delle persone ad adottare pannelli solari”. Ma De Filippo ha anche messo in guardia sull’impatto ambientale degli stessi algoritmi: “Serve una green AI: sono gli stessi Obiettivi dell’Agenda 2030 che ci devono guidare a implementare gli algoritmi di intelligenza artificiale. Non bisogna usare dataset troppo grandi se non necessario. L’algoritmo deve essere efficiente, comprensibile, trasparente e non polarizzato. Solo così potrà dirsi sostenibile”.

Stefano Epifani, presidente della Fondazione per la Sostenibilità Digitale, ha sottolineato come il digitale venga spesso demonizzato perché “facile da misurare: una call di dieci minuti su Zoom ha un impatto calcolabile, ma dimentichiamo che sostituisce spostamenti ben più inquinanti”. Epifani ha portato quindi un esempio concreto: “Il 30% delle emissioni urbane deriva da raffreddamento e riscaldamento. Se l’AI riduce del 10% questi consumi, otteniamo un impatto significativo, pari quasi al 3% delle emissioni complessive. La sostenibilità digitale quindi si gioca su due piani: sostenibilità del digitale e sostenibilità grazie al digitale. Ciò che possiamo fare è sviluppare un digitale che sia davvero motore di sostenibilità”. Infine, un richiamo all’etica: “L’etica è nostra, non delle macchine. Non esistono ancora intelligenze artificiali ‘pensanti’. Sta a noi costruire un’etica sociale per governare questi strumenti”. Si tratta di temi approfonditi nel Manifesto per la sostenibilità digitale dell’AI pubblicato nel 2023 dalla Fondazione.

Francesca Bastagli, responsabile ricerca della Fondazione Agnelli, ha illustrato l’impatto dell’AI sul sistema scolastico. “Stiamo monitorando due grandi direttrici: come si insegna e si apprende, anche in ambito di amministrazione scolastica, e cosa si dovrebbe insegnare per preparare le nuove generazioni”, ha affermato. Secondo Bastagli l’uso dell’AI in ambito educativo può portare benefici, come il tutoraggio personalizzato, ma deve essere accompagnato da una revisione urgente” dei curricula scolastici, affinché gli studenti sviluppino le competenze necessarie a gestire rischi e opportunità delle nuove tecnologie. “L’aumento dell’utilizzo dell’AI nel mondo della scuola è accompagnato, per fortuna, da sforzi importanti di monitoraggio e valutazione”, ha concluso.

Infine, Filippo Della Casa, amministratore delegato di Leithà (tech & data factory del Gruppo Unipol), ha discusso l’uso dell’AI in ambito assicurativo, con particolare attenzione al rischio di bias e overfitting, ossia quando un algoritmo si adatta troppo fedelmente ai dati di addestramento. “Trainare un algoritmo a fini di antifrode assicurativa su un sample distorto significa investire eccessive risorse su sinistri che poi si rivelano genuini e non catturare le vere frodi.” Secondo Della Casa è necessario che gli algoritmi siano allenati su campioni rappresentativi, per essere davvero efficaci e giusti.

 

di Andrea De Tommasi