Intelligenza Artificiale
L'intelligenza artificiale incontra l'efficienza: un nuovo chip riduce del 50% il consumo energetico dei LLM
Securities.io mantiene rigorosi standard editoriali e potrebbe ricevere compensi per i link recensiti. Non siamo consulenti finanziari registrati e questo non costituisce consulenza finanziaria. Si prega di consultare il nostro divulgazione di affiliati.

L'attuale boom dell'intelligenza artificiale (IA) sta determinando un aumento dei data center, con conseguente enorme richiesta di energia per il funzionamento e il raffreddamento dei server al loro interno.
Sebbene nel mondo ci siano oltre 8,000 data center, la maggior parte dei quali si trova negli Stati Uniti, questo numero è destinato ad aumentare notevolmente nei prossimi anni.
Secondo le stime del Boston Consulting Group, la domanda di data center aumenterà dal 15% al 20% ogni anno fino al 2030. A questo punto, l'azienda prevede che rappresenteranno il 16% del consumo energetico totale degli Stati Uniti, rispetto al mero 2.5% registrato prima del rilascio di ChatGPT da parte di OpenAI nel 2022.
Nel frattempo, la rapporto speciale su energia e intelligenza artificiale Secondo un rapporto pubblicato quest'anno dall'Agenzia Internazionale per l'Energia (AIE), la domanda di elettricità dei data center di tutto il mondo dovrebbe almeno raddoppiare entro la fine di questo decennio, raggiungendo circa 945 TWh. Questa cifra è quasi equivalente a quella consumata oggi dal Giappone.
L'organizzazione intergovernativa autonoma con sede a Parigi segnala che l'intelligenza artificiale è il principale motore di questo picco, con una domanda di elettricità da parte dei data center ottimizzati per l'intelligenza artificiale che dovrebbe più che quadruplicarsi entro il 2030.
Negli Stati Uniti, in particolare, il consumo energetico dei data center è già destinato a rappresentare circa la metà della crescita della domanda di elettricità da qui al 2030. Trainata dall'impiego dell'intelligenza artificiale, secondo il rapporto, l'economia statunitense consumerà a quel punto più elettricità per elaborare i dati che per produrre tutti i beni ad alta intensità energetica messi insieme.
Questa insaziabile fame di energia rappresenta un enorme problema per il progresso e l'adozione dell'IA. Tuttavia, il lato positivo è il crescente numero di ricercatori e aziende che lavorano per ridurre il consumo energetico dell'IA e renderla più efficiente.
Ciò che è interessante di questi sforzi è che molti di essi utilizzano l'intelligenza artificiale per affrontare le proprie sfide energetiche.
Proprio questo mese, un team di ricercatori ha presentato un nuovo chip che sfrutta l'intelligenza artificiale per ridurre del 50% l'impatto energetico dei grandi modelli linguistici (LLM), segnando un importante passo avanti nel rendere gli LLM più convenienti e sostenibili da gestire.
Nuovo chip sfrutta l'intelligenza artificiale per ridurre il consumo energetico dell'LLM

I ricercatori della Facoltà di Ingegneria dell'Università statale dell'Oregon hanno sviluppato un nuovo chip AI efficiente per risolvere il problema dell'elevato consumo di elettricità delle applicazioni AI LLM come GPT-4 di OpenAI e Gemini di Google.
Un tipo di modello di apprendimento automatico (ML), un modello linguistico di grandi dimensioni (LLM), viene pre-addestrato su grandi quantità di dati per eseguire attività di elaborazione del linguaggio naturale (NLP) come generazione di testo, riepilogo, semplificazione, ragionamento testuale, traduzione linguistica e altro ancora.
Tra i chatbot più popolari e utilizzati al giorno d'oggi ci sono GPT-4o, o3 e o1 di OpenAI, Gemini e Gemma di Google, Llama di Meta, R1 e V3 di DeepSeek, Claude di Anthropic, Nova di Amazon, Phi di Microsoft e Grok di xAI.
Negli ultimi anni, gli LLM hanno trasformato radicalmente il campo dell'intelligenza artificiale, consentendo alle macchine di comprendere e generare testi simili a quelli umani con maggiore accuratezza. Tuttavia, questa evoluzione degli LLM ha portato a un aumento esponenziale delle loro dimensioni.
Le dimensioni di un LLM, misurate in base al numero di parametri, sono il principale fattore che determina il suo consumo energetico. Ciò significa che più grande è il modello, maggiore è la sua richiesta di potenza di calcolo per l'addestramento e l'inferenza.
Ad esempio, ChatGPT-1 aveva poco meno di 120 milioni di parametri, che sono aumentati a 175 miliardi di parametri con GPT-3, e poi a circa 1.8 trilioni di parametri con GPT-4.
Questo enorme aumento delle dimensioni e delle capacità dei LLM implica anche un aumento senza precedenti del loro consumo energetico. Oltre alle dimensioni del modello, fattori come il tipo di hardware utilizzato per addestrare questi LLM, la durata del processo di addestramento, l'infrastruttura (ad esempio, i data center), l'elaborazione dei dati, l'ottimizzazione del modello e l'efficienza degli algoritmi influenzano il consumo energetico dei LLM.
Da qui il nuovo chip dei ricercatori dell'OSU. Secondo Tejasvi Anand, professore associato di ingegneria elettrica all'OSU e direttore del Laboratorio di Circuiti e Sistemi a Segnale Misto dell'Università:
Il problema è che l'energia necessaria per trasmettere un singolo bit non viene ridotta alla stessa velocità con cui aumenta la richiesta di velocità di trasmissione dati. Questo è ciò che causa un consumo energetico così elevato nei data center.
Per superare questo problema, il team ha progettato e sviluppato un nuovo chip che consuma solo la metà dell'energia rispetto ai modelli convenzionali.
Anand e il dottorando Ramin Javad hanno presentato questa nuova tecnologia alla conferenza IEEE Custom Integrated Circuits (CIC), tenutasi a Boston il mese scorso. La conferenza, che ospita forum, panel, esposizioni e presentazioni orali, è dedicata allo sviluppo dei circuiti integrati (IC), che costituiscono il nucleo dei moderni sistemi elettronici, offrendo funzionalità e potenza di elaborazione in un package compatto ed efficiente.
La tecnologia più recente è stata sviluppata con il supporto del Center for Ubiquitous Connectivity (CUbiC), della Semiconductor Research Corporation (SRC) e della Defense Advanced Research Projects Agency (DARPA). Ha inoltre fatto vincere a Javadi il premio per il miglior articolo studentesco alla conferenza.
Per il nuovo chip, i ricercatori hanno sfruttato i principi dell'intelligenza artificiale che, come ha osservato Javadi, riducono il consumo di elettricità per l'elaborazione del segnale.
Come ha spiegato, gli LLM inviano e ricevono molti dati tramite connessioni cablate, ovvero collegamenti di comunicazione in rame nei data center. L'intero processo richiede molta energia, quindi una potenziale "soluzione è sviluppare chip di comunicazione cablata più efficienti".
Javadi ha inoltre osservato che, quando vengono inviati ad alta velocità, i dati vengono corrotti al ricevitore e, di conseguenza, devono essere ripuliti. A questo scopo, la maggior parte dei sistemi di comunicazione cablata esistenti utilizza un equalizzatore, che consuma molta energia.
"Stiamo utilizzando i principi dell'intelligenza artificiale sul chip per recuperare i dati in modo più intelligente ed efficiente, addestrando il classificatore sul chip a riconoscere e correggere gli errori".
– Javadi
Sebbene si tratti di un grande sviluppo, questa è solo la versione iniziale del chip. La sua prossima iterazione è attualmente in fase di sviluppo per migliorarne ulteriormente l'efficienza energetica.
Nel complesso, questa ricerca in corso mostra un grande potenziale per avere implicazioni di vasta portata per il futuro delle infrastrutture di intelligenza artificiale e delle operazioni dei data center. Ma ovviamente, ciò richiederebbe un'implementazione efficace della tecnologia su larga scala, il che non è mai un compito facile.
Domare l'appetito energetico dell'intelligenza artificiale con innovazioni a più livelli
Questo ultimo sviluppo di chip è solo uno dei tanti progetti di ricerca che affrontano il problema del consumo energetico dell'intelligenza artificiale. Diamo quindi un'occhiata ai modi innovativi in cui i ricercatori lo hanno affrontato.
Utilizzo della luce per l'efficienza energetica dell'intelligenza artificiale
All'inizio di quest'anno, gli scienziati dell'USST sviluppato1 Un chip di intelligenza artificiale microscopico, più piccolo di un granello di polvere o di sale, che utilizza la luce per elaborare i dati provenienti dai cavi in fibra ottica. Questo promette calcoli più veloci con un consumo energetico inferiore.
Il chip manipola la luce per eseguire calcoli istantaneamente, anziché interpretare i segnali luminosi come fanno i computer tradizionali. Per questo, utilizza una "rete neurale profonda diffrattiva completamente ottica", una tecnologia che utilizza strati di componenti stampati in 3D e sovrapposti. Pur essendo un progetto rivoluzionario, è necessario superare sfide come la progettazione specifica per ogni compito, la sensibilità alle imperfezioni e la difficoltà di produzione su larga scala per raggiungere "funzionalità senza precedenti" nell'imaging endoscopico, nel calcolo quantistico e nei data center.
Pochi mesi prima, gli scienziati del MIT avevano utilizzato la luce anche per eseguire le operazioni chiave di una rete neurale su un chip, consentendo calcoli di intelligenza artificiale ultraveloci (in mezzo nanosecondo) con una precisione del 92% e un'enorme efficienza energetica.
Questo lavoro dimostra che l'informatica, nella sua essenza, la mappatura degli input sugli output, può essere compilata su nuove architetture di fisica lineare e non lineare che consentono una legge di scala fondamentalmente diversa tra calcolo e sforzo necessario.
– Autore principale Dirk Englund
Gli scienziati ha sviluppato il chip fotonico2, costituito da moduli interconnessi che formano una rete neurale ottica. In particolare, l'utilizzo di processi di fonderia commerciali per la sua fabbricazione ne consente la scalabilità e l'integrazione nell'elettronica. Inoltre, gli scienziati hanno superato la sfida della non linearità nell'ottica progettando unità funzionali ottiche non lineari (NOFU) che combinano elettronica e ottica.
Uno strumento software per la formazione dell'intelligenza artificiale e un sistema di raffreddamento per i data center

Nel frattempo, i ricercatori dell’Università del Michigan, mirato allo spreco energetico creato al momento dell'addestramento dell'intelligenza artificiale, più specificamente, quando viene suddiviso tra le GPU, una necessità per elaborare enormi set di dati in modo diseguale.
Hanno quindi sviluppato uno strumento software chiamato Perseus che identifica le sottoattività che richiedono più tempo per essere completate e quindi riduce la velocità dei processori che non si trovano su questo "percorso critico", per consentire a tutti di completare le proprie attività contemporaneamente, eliminando così un consumo energetico non necessario.
Questo strumento open source è disponibile come parte di Zeus, uno strumento per misurare e ottimizzare il consumo energetico dell'intelligenza artificiale.
Nel frattempo, i ricercatori dell'Università del Missouri si sono rivolti a ideare un sistema di raffreddamento di nuova generazione Per aiutare i data center a diventare più efficienti dal punto di vista energetico, stanno anche realizzando un sistema di raffreddamento che faciliti la connessione e la disconnessione all'interno dei rack dei server.
Raffreddamento e produzione di chip vanno di pari passo. Senza un raffreddamento adeguato, i componenti si surriscaldano e si guastano. I data center efficienti dal punto di vista energetico saranno fondamentali per il futuro dell'intelligenza artificiale.
- Chanwoo Park, professore di ingegneria meccanica e aerospaziale presso il Mizzou College of Engineering
Grazie al finanziamento di 1.5 milioni di dollari dell'iniziativa COOLERCHIPS del Dipartimento dell'Energia, il team ha sviluppato un sistema di raffreddamento bifase che dissipa il calore dai chip dei server attraverso il cambio di fase. Non solo può funzionare passivamente senza consumare energia quando necessario per ridurre il raffreddamento, ma anche in modalità attiva, il sistema ne consuma una quantità molto ridotta.
L'hardware CRAM potrebbe ridurre di 1000 volte il consumo energetico dell'intelligenza artificiale
L'estate scorsa, gli ingegneri dell'Università del Minnesota Twin Cities ha sviluppato un dispositivo hardware avanzato3 che potrebbe ridurre il consumo energetico dell'intelligenza artificiale di circa 1,000 volte.
Questo nuovo modello è denominato memoria computazionale ad accesso casuale (CRAM): in questo caso i dati non escono mai dalla memoria, ma vengono elaborati completamente all'interno della matrice di memoria, eliminando così la necessità di trasferimenti di dati lenti e ad alto consumo energetico.
Questo studio, frutto di due decenni di lavoro, fa parte degli sforzi del team per sviluppare ulteriormente la ricerca brevettata dell'autore senior Jian-Ping Wang sui dispositivi a giunzioni a tunnel magnetico (MTJ). Questi dispositivi nanostrutturati vengono utilizzati per migliorare sensori, dischi rigidi e altri sistemi microelettronici come la memoria magnetica ad accesso casuale (MRAM).
"In quanto substrato di elaborazione in-memory digitale estremamente efficiente dal punto di vista energetico, la CRAM è molto flessibile, in quanto il calcolo può essere eseguito in qualsiasi posizione dell'array di memoria", ha osservato il coautore Ulya Karpuzcu, Professore Associato presso il Dipartimento di Ingegneria Elettrica e Informatica. Inoltre, può essere riconfigurata per adattarsi al meglio alle esigenze prestazionali di diversi algoritmi.
Intelligenza artificiale ispirata al cervello: ridurre il consumo energetico imitando l'efficienza umana
Quindi, come abbiamo visto, i ricercatori stanno esaminando diversi aspetti dell'IA per gestirne i problemi energetici. È interessante notare che si stanno anche rivolgendo al cervello umano per trovare ispirazione. Questo ha senso, dopotutto, l'IA è la simulazione dei processi di intelligenza umana da parte delle macchine, sebbene sia lontano dal pensiero e dal ragionamento umano a causa della sua capacità di generalizzare attraverso le variazioni, essendo "significativamente più debole della cognizione umana".
La ricerca sulla riduzione dell'energia ispirata al cervello include il lavoro del Professore Associato Chang Xu del Sydney AI Centre dell'Università, il quale ha osservato che l'utilizzo delle risorse a piena capacità da parte degli LLM, anche per compiti semplici, non è il modo giusto di procedere. Ha spiegato:
"Se pensiamo a un cervello umano sano, non attiva tutti i neuroni né utilizza tutta la sua potenza cerebrale contemporaneamente. Funziona con un'incredibile efficienza energetica, solo 20 Watt di potenza nonostante abbia circa 100 miliardi di neuroni, che utilizza selettivamente dai diversi emisferi del cervello per svolgere compiti o pensare diversi."
Per questo motivo, stanno sviluppando algoritmi che aggirano i calcoli ridondanti non necessari e non accelerano automaticamente.
In altri casi, la ricerca si è ispirata alla neuromodulazione del cervello e ha creato un algoritmo chiamato 'sistema di stoccaggio"per ridurre l'energia del 37% senza alcuna degradazione della precisione, la funzione di autoriparazione delle cellule cerebrali chiamata astrociti per dispositivi hardwaree ha ottenuto una forma di elaborazione neuromorfica (ispirata al cervello) (memristori) per lavorare insieme in diversi sottogruppi di reti neurali.
Investire in Intelligenza Artificiale
Un'azienda globale di semiconduttori, AMD (AMD ) È nota per le sue tecnologie di elaborazione ad alte prestazioni, grafica e visualizzazione. Pur essendo in diretta competizione con l'intelligenza artificiale, NVIDIA (NVDA ), sta rapidamente guadagnando terreno nei mercati dei data center e degli acceleratori di intelligenza artificiale. La sua serie MI300 è specificamente rivolta ai carichi di lavoro di intelligenza artificiale di ultima generazione e alle applicazioni HPC.
La sua presenza leader nel settore delle CPU per data center, la forte attenzione alla ricerca e sviluppo, la crescita del fatturato, la clientela e le acquisizioni rendono AMD un attore forte nel settore.
Advanced Micro Devices (AMD )
Nel 2022, AMD ha concluso un accordo record nel settore dei chip, del valore di 50 miliardi di dollari, con l'acquisizione di Xilinx, diventando leader del settore nel computing ad alte prestazioni e adattivo. E, più recentemente, ha completato l'acquisizione di ZT Systems per cogliere l'opportunità di accelerare l'intelligenza artificiale nei data center, del valore di 500 miliardi di dollari, nel 2028.
Anche la performance di mercato di AMD sta recuperando quest'anno, dopo essere stata colpita dalle turbolenze tariffarie. Al momento della stesura di questo articolo, le azioni AMD sono scambiate a 120 dollari, in calo del 6.9% da inizio anno, ma solo del 47% circa rispetto al picco di marzo 2024. La sua capitalizzazione di mercato è quindi di 182.34 miliardi di dollari, con un utile per azione (EPS) (TTM) di 1.36 e un rapporto prezzo/utili (P/E) (TTM) di 82.44.
Per quanto riguarda i dati finanziari dell'azienda, AMD ha registrato un aumento del fatturato del 36% su base annua, raggiungendo i 7.4 miliardi di dollari nel primo trimestre del 1, che l'amministratore delegato, la Dott.ssa Lisa Su, ha definito "un inizio d'anno eccezionale", "nonostante il contesto macroeconomico e normativo dinamico". Questa crescita è stata trainata "dall'espansione dei data center e dall'aumento dello slancio dell'intelligenza artificiale", ha aggiunto.
In questo periodo, l'utile operativo di AMD è stato di 806 milioni di dollari, l'utile netto di 709 milioni di dollari e l'utile diluito per azione di 0.44 dollari. Per il secondo trimestre del 2, si stima un fatturato di circa 2025 miliardi di dollari.
Alcuni sviluppi chiave realizzati dall'azienda includono l'espansione delle partnership strategiche con Meta Platforms Inc. (META ) (Lama), Alphabet Inc. (GOOGL ) (Gemma), Oracle Corporation (ORCL ), Core42, Tecnologie Dell (DELL )e altri. AMD, insieme a Nokia, Cisco Systems, Inc. (CSCO )e Jio hanno inoltre annunciato una nuova piattaforma Open Telecom AI per offrire soluzioni basate sull'intelligenza artificiale volte a migliorare l'efficienza, la sicurezza e le capacità.
Questa settimana, AMD e Nvidia hanno stretto una partnership con Humain, una sussidiaria del Fondo pubblico di investimento dell'Arabia Saudita specializzata nell'intelligenza artificiale, per fornire semiconduttori per un progetto di data center su larga scala che dovrebbe avere una capacità di 500 MW.
Clicca qui per un elenco delle principali aziende informatiche non basate sul silicio.
Ultime tendenze e sviluppi di Advanced Micro Devices (AMD)
Conclusione
Negli ultimi anni, la mania dell'intelligenza artificiale ha registrato una crescita esponenziale, e per ottime ragioni. Questa tecnologia, dopotutto, ha un grande potenziale per trasformare un'ampia gamma di settori, dalla sanità, alla produzione e alla scienza dei materiali, fino alla finanza, all'intrattenimento, all'istruzione, al commercio al dettaglio e alla sicurezza informatica.
Tuttavia, il progresso tecnologico, la crescente adozione e la successiva espansione di questi LLM hanno portato a una domanda sostanziale di energia, che contribuisce alle emissioni di gas serra (GHG) e al cambiamento climatico, aumenta i costi economici e ha un impatto sulla sostenibilità della tecnologia.
Ciò rappresenta una sfida importante per l'IA. Se vogliamo realizzare appieno il suo vero potenziale in termini di riduzione dei costi, aumento della produttività e miglioramento del processo decisionale su larga scala, i modelli devono essere economicamente vantaggiosi e sostenibili.
L'aspetto positivo, tuttavia, è che i ricercatori di tutto il mondo stanno già lavorando duramente per rendere l'intelligenza artificiale efficiente dal punto di vista energetico, come dimostra il chip basato sull'intelligenza artificiale dell'Oregon State, che suggerisce una forte possibilità di allineare innovazione e sostenibilità.
Naturalmente, le tecnologie proposte devono superare il loro più grande ostacolo al raggiungimento di un impatto concreto: la scalabilità. Tuttavia, una cosa è chiara: un futuro più verde dell'IA è fattibile e sta arrivando!
Clicca qui per scoprire tutto sugli investimenti nell’intelligenza artificiale.
Studi citati:
1. Yu, H., Huang, Z., Lamon, S., Wu, J., Zhao, Z., Lin, D., Zhao, H., Zhang, J., Lu, C., Liu, H., Zhang, X. e Zhang, C. (2025). Trasporto di immagini completamente ottico attraverso una fibra multimodale utilizzando una rete neurale diffrattiva miniaturizzata sulla faccetta distale. Nature Photonics, 19, pp. 486–493. https://doi.org/10.1038/s41566-025-01621-4
2. Bandyopadhyay, S., Sludds, A., Krastanov, S., Youssry, A., Zhang, L., Lian, C., Yu, S., Desiatov, B., Burek, MJ, Lukin, MD, e Lončar, M. (2024). Rete neurale profonda fotonica a chip singolo con addestramento forward-only. Nature Photonics, 18, 1335–1343. https://doi.org/10.1038/s41566-024-01567-z
3. Lv, Y., Zink, BR, Bloom, RP, Roy, A., Vaddi, K., Shang, L. e Manipatruni, S. (2024). Dimostrazione sperimentale di una memoria ad accesso casuale computazionale basata su giunzioni a tunnel magnetico. npj Unconventional Computing, 1, 3. https://doi.org/10.1038/s44335-024-00003-3










