L'intelligenza artificiale 'non inquina. È solo un programma informatico che funziona sui server, e non avendo una forma fisica non emette inquinanti nell'ambiente'. Almeno così ChatGPT rispondeva nel 2023, quando interpellato rispetto ai suoi consumi, tanto preciso non era. Oggi le risposte cambiano, merito anche di un costante perfezionamento dello strumento, che in questi anni ha proseguito il suo addestramento, allontanandosi da molti inquietanti meccanismi in cui cadeva alle volte, e facendosi sempre più chiaro e limpido.
Addestrare una ChatBot di grandi dimensioni può emettere oltre 300 tonnellate di anidride carbonica, equivalenti alle emissioni di cinque automobili nell'intero arco della loro vita. E non finisce qui. Ogni interazione, richiesta e prompt richiede un'enorme potenza di calcolo: miliardi di parametri da elaborare in pochi millisecondi, alimentati da centri dati che consumano più energia di alcune nazioni di medie dimensioni.
Alcuni esempi specifici: una e-mail di sole 100 parole scritte da ChatGPT consuma mezzo litro d'acqua, acqua necessaria per il raffreddamento dei server, che viene riutilizzata tra le 7 e le 10 volte prima di essere eliminata per questioni di prolificazione batterica. La produzione di una singola immagine AI consuma tanta elettricità quanto quella necessaria per caricare completamente uno smartphone.
Si stima che, allo stato attuale dei fatti, entro la fine del 2025 i consumi dei datacenter costituiranno il 10% dei consumi a livello mondiale.
Parliamo di dati, inoltre, che sembrano essere destinati ad aumentare. Nel frattempo, la domanda di modelli AI sempre più complessi cresce esponenzialmente, mettendo ulteriore pressione su un sistema già stressato.
A ogni aggiornamento e potenziamento aumentano anche le risorse investite e necessario per la gestione degli upgrade. Un'escalation che necessita di concrete manovre per un suo ridimensionamento.
Non tutto è perduto. Paradossalmente, la stessa AI potrebbe rappresentare la chiave per ridurre il proprio impatto ambientale. Grazie a sofisticati algoritmi di ottimizzazione, l'AI può aiutare - e in parte lo sta già facendo - a sviluppare hardware più efficiente, migliorare la gestione energetica dei data center e persino identificare soluzioni per l'energia rinnovabile. Per esempio, Google ha implementato modelli AI per ottimizzare i suoi data center, riducendo del 40% il consumo energetico legato al raffreddamento. Risultato eccezionale ma pur sempre solamente un inizio.
Ricordiamo infatti le promesse green delle big tech - greenwashing? Invece di ridurre i consumi energetici grazie a innovazioni e investimenti stanziati nell'efficienza, la realtà dipinge un quadro diverso. Le proiezioni mostrano che, invece di diminuire fino ad arrivare alle emissioni 0 promesse entro il 2030, il consumo energetico sta aumentando fino al 48%, nel caso di Google. Questo trend è alimentato dall'espansione delle applicazioni AI e dalla competizione tra aziende per sviluppare modelli sempre più avanzati e complessi. L'ottimizzazione tecnologica non riesce ancora a tenere il passo con la crescente domanda di potenza computazionale.
Un'altra strategia valida sembrerebbe quella dell'adozione di modelli AI più leggeri, che richiedono meno potenza computazionale per funzionare. Anche il concetto di 'AI federata', che decentralizza l'elaborazione dei dati per ridurre la dipendenza dai grandi data center, rappresenta una promessa significativa. Parallelamente, l'adozione di crittografia post-quantistica e tecnologie come lo spatial computing potrebbe ottimizzare ulteriormente l'uso delle risorse, aprendo la strada a soluzioni più sostenibili.
Tuttavia, queste innovazioni richiedono investimenti, volontà politica e una collaborazione globale che al momento appare frammentata. Citando ancora Google, ad esempio, è la prima a giustificare la non-adozione di determinate manovre, dando la responsabilità a una generale incertezza sulla strada da intraprendere.
C'è poi un'altra dimensione, meno visibile ma altrettanto cruciale: l'impatto sui consumi personali e sul tempo umano. Per molti, il costo ambientale dell'uso dell'AI sembra giustificato dai benefici che porta in termini di risparmio di risorse umane. L'obiezione principale è che una ChatBot è in grado di completare in pochi secondi attività che per un umano potrebbero richiedere giorni, con un consumo di risorse notevolmente inferiore. Questo punto diventa però instabile di fronte agli incentivi promessi: l'AI si presenta come una soluzione per alleggerire il carico di lavoro, assumendosi una parte sostanziale delle attività, mentre lascia all'uomo compiti più creativi e meno gravosi. Tuttavia, questa logica rischia di amplificare, anziché ridurre, le pressioni.
L'efficienza offerta da strumenti come ChatGPT potrebbe tradursi in deadline più stringenti e aspettative di produttività sempre più elevate, riducendo il tempo di riposo e aumentando lo stress.
L'idea che l'AI liberi gli esseri umani da compiti ripetitivi per permettere loro di dedicarsi a ciò che conta davvero è seducente, ma poco realistica nel contesto attuale. Il rischio concreto è che il tempo 'liberato' venga rapidamente riempito da nuove richieste, trasformando la promessa di un futuro migliore in un incubo di produttività incessante.
Non è forse la ripetitività dei compiti a definire l'esperienza di un professionista? Delegare all'AI rischia di abbassare le competenze e di trasformare l'abuso di strumenti come ChatGPT in una nuova forma di inquinamento. Un tema che abbiamo già esplorato nelle nostre precedenti pubblicazioni, ma che qui solleva una domanda: l'efficienza vale la professionalità?
Una cosa è certa: l'AI rappresenta un'opportunità straordinaria, ma il suo sviluppo deve essere guidato da una consapevolezza ecologica e sociale. Non possiamo permetterci di ignorare il costo ambientale e umano di questa tecnologia. Servono norme più rigide, investimenti in ricerca sostenibile e un cambio di paradigma che metta al centro non solo l'innovazione, ma anche la sostenibilità.
Secondo le ricerche di Gartner, l'adozione di intelligenza ambientale invisibile e piattaforme di governance per l'AI sarà cruciale nei prossimi anni per garantire un equilibrio tra innovazione e tutela ambientale. La vera intelligenza non sta solo nel creare macchine più potenti, ma nel farlo senza compromettere il futuro.