food for thought
L’Italia adotta la sua Strategia nazionale per l’intelligenza artificiale
La Strategia Italiana 2024-2026 per l’intelligenza artificiale, adottata di recente, è un passo cruciale per il nostro Paese, che mira a assumere un ruolo di primo piano in materia di IA e transizione tecnologica, anche grazie all’importante ruolo svolto con la Presidenza del G7. Questo il testo integrale della Strategia Italiana per l’Intelligenza Artificiale 2024-2026 (anche in inglese). Il documento riflette l’impegno del Governo nel creare un ambiente in cui l’IA possa svilupparsi in modo sicuro, etico e inclusivo, massimizzando i benefici e minimizzando i potenziali effetti avversi. Dopo un’analisi del contesto globale e del posizionamento italiano, esso definisce le azioni strategiche, raggruppate in quattro macroaree: Ricerca, Pubblica Amministrazione, Imprese e Formazione. La strategia propone, inoltre, un sistema di monitoraggio della relativa attuazione e un’analisi del contesto regolamentare che traccia la cornice entro cui dovrà essere dispiegata.
Guerra, la fine della ragione
Nel 1964 Norberto Bobbio decise di dedicare le sue lezioni di filosofia del diritto al tema della guerra e della pace, esplorando il concetto di guerra giusta, e arrivando tra l’altro a formulare la sua celebre tesi circa l’impossibilità di giustificare la guerra in un’epoca in cui l’uso di armi così potenti rischia di mettere in questione la stessa sopravvivenza del genere umano. «E dopo ogni guerra, pensava Dori, dopo ogni battaglia, non una, ma due, tre, dieci, cento versioni. Chi ha ragione, alla fine? Ciò che appare sembra una cosa, ma poi ne sembra un’altra, e poi ancora cambia di prospettiva. Alla fine, cosa conta chi ha ragione, se la ragione stessa è andata persa?» (Diego Brasioli, il Caffè di Tamer, Mursia 2002, II ed. 2023)
Le macchine potranno diventare coscienti?
La risposta è sì, attraverso il World Modelling. La visione di Yann LeCun (Meta, vincitore dell’Alan Turing Prize) sul futuro dell’intelligenza artificiale.
Intelligenza artificiale, coscienza e emozioni
Il grande neuroscienziato Antonio Damasio, nei suoi studi sulle basi neuronali della cognizione e del comportamento, ha evidenziato l’importanza delle emozioni nel processo decisionale. Le sue teorie suggeriscono che sentire e percepire sono aspetti fondamentali nel guidare le scelte umane. L’intelligenza artificiale apre nuove frontiere nel campo della comprensione dei meccanismi che animano l’umanità. Attraverso l’analisi dei dati e l’apprendimento automatico, l’IA può comprendere e anticipare le reazioni emotive degli utenti. Questo non solo rende i sistemi digitali più efficaci, ma permette di aiutarci a sentire e percepire in modi unici e personali. «È tempo di riconoscere questi fatti e di aprire un nuovo capitolo nella storia dell’IA e della robotica. È evidente che possiamo sviluppare macchine operanti lungo le linee dei “sentimenti omeostatici”. Quello di cui abbiamo bisogno, per farlo, è di fornire ai robot un “corpo” che, per conservarsi, richieda regolazioni e aggiustamenti. In altre parole, quasi paradossalmente, dobbiamo aggiungere alla robustezza tanto apprezzata nella robotica un certo grado di vulnerabilità. Oggi è possibile farlo collocando dei sensori in tutta la struttura del robot e facendo in modo che essi rilevino e registrino gli stati più o meno efficienti del corpo, integrando le funzioni corrispondenti. […] Queste macchine “capaci di sentire” diventano allora “macchine coscienti”? Be’, non così in fretta. I loro “sentimenti” non sono come quelli delle creature viventi, benché sviluppino elementi funzionali legati alla coscienza (il sentire fa parte della via che conduce ad essa). Il grado di coscienza raggiunto infine da tali macchine dipenderà dalla complessità delle loro rappresentazioni interne, riguardanti sia “l’interno della macchina” sia il suo “ambiente circostante”. È molto probabile che […] questa nuova va generazione di macchine costituirebbe un laboratorio unico per lo studio del comportamento e della mente umani, in molti autentici scenari realistici.»
Macchine pensanti? L’originale esperimento
di Valentino Braitenberg
Quando consideriamo la controversa nozione di macchine pensanti, vengono alla mente i veicoli di Braitenberg, un concetto affascinante introdotto quarant’anni fa dal neuropsicologo italiano Valentino Braitenberg (1926-2011) nel suo studio Vehicles: Experiments in Synthetic Psychology. Egli immagina delle macchine relativamente semplici che si muovono in base agli input dei sensori di cui sono dotate, attraverso azioni puramente meccaniche ma che possono esibire comportamenti assai multiformi, al punto da poter sembrare intenzionali, come se fossero dotate di vera e propria intelligenza. Questo illustra come regole e interazioni semplici possano portare a fenomeni emergenti, un fenomeno rilevante in campi come la robotica, l’intelligenza artificiale e la biologia: un modo diverso e originale di guardare alla realtà.
L'impatto ambientale dell'intelligenza artificiale
Per raffreddare i centri di elaborazione dati che alimentano i centri elaborazione dati dei sistemi di IA sono necessari grandi quantità di acqua, ciò che suscita preoccupazioni sul costo ambientale del boom dell’intelligenza artificiale generativa. Diversi studi sottolineano che la crescente domanda di IA potrebbe avere nei prossimi anni un impatto molto significativo sull’estrazione di risorse idriche da fonti sotterranee o di superficie: tra i 4,2 e i 6,6 miliardi di metri cubi entro il 2027, ovvero circa la metà della quantità consumata dall’intero Regno Unito in un anno!
Quali risposte ai potenziali rischi dell’IA? Verso i software open source
La questione se sia più vantaggioso e moralmente accettabile per le aziende che creano programmi di IA mantenere segrete le specifiche del proprio codice informatico o renderle liberamente disponibili agli sviluppatori di software di tutto il mondo è ormai da molti anni un argomento di discussione tra gli esperti di settore. La preoccupazione che l’intelligenza artificiale stia diventando una minaccia per la sicurezza ha alimentato il dibattito tra software chiuso e open source, che è diventato via via più acceso a causa del rapido progresso delle nuove tecnologie. In una lettera aperta pubblicata nel luglio 2024, Mark Zuckerberg, tra i fondatori di Facebook e amministratore delegato di Meta, ha rivendicato la posizione presa dalla sua azienda, da molti considerata rivoluzionaria, di liberalizzare quanto più possibile la fruizione dei propri programmi, In particolare, il modello Llama 3.1 405B è ora disponibile per gli sviluppatori in modalità open source, come tutti i modelli di intelligenza artificiale a cui ha lavorato finora Meta. Questo vuol dire che chiunque può accedere, visualizzare, modificare e ridistribuire il codice sorgente di questo programma. Per fare un esempio, chi volesse usare LLama 3.1 per creare una nuova chatbot capace di conversare in modo naturale con gli utenti - esattamente come fanno ChatGPT o Gemini - non dovrebbe pagare a Meta i costi di licenza della tecnologia che sta utilizzando. Zuckerberg sostiene che l’approccio open source nel campo dell’intelligenza artificiale consentirà al più ampio numero di sviluppatori di nuovi modelli tecnologici di utilizzare tale conoscenza per costruire i propri programmi di IA. Alla base di questo ragionamento vi è la consapevolezza che non è realistico pensare che una manciata di aziende possa alla lunga mantenere segreta la propria tecnologia di intelligenza artificiale, in particolare quando la Silicon Valley è evidentemente esposta a continui tentativi di spionaggio industriale. Ma l’ambizione di Zuckerberg va al di là di questi, pur importanti, aspetti legati alla competitività, e mira in ultima analisi a creare dei sistemi di IA veramente accessibili e trasparenti, a beneficio di tutti: «L’open source garantirà che più persone in tutto il mondo possano fruire dei vantaggi e delle opportunità dell’intelligenza artificiale, che il potere non sia concentrato nelle mani di un piccolo numero di aziende e che la tecnologia possa essere implementata in modo più uniforme e sicuro in tutta la società.»
Quanta energia consuma l'intelligenza artificiale?
Un fattore chiave da tenere in considerazione è il costo energetico necessario per far funzionare i nuovi sistemi digitali, i supercomputer e i computer quantistici. È stato stimato che prima del 2030 i centri dati che alimentano l'intelligenza artificiale potrebbero consumare tra gli 85 e i 134 terawattora di energia all'anno, equivalenti al consumo di intere nazioni come i Paesi Bassi, la Polonia o l'Argentina.
