Artificial Intelligence
AI spotyka się z wydajnością: nowy układ zmniejsza zużycie energii LLM o 50%
Securities.io utrzymuje rygorystyczne standardy redakcyjne i może otrzymywać wynagrodzenie z przeglądanych linków. Nie jesteśmy zarejestrowanym doradcą inwestycyjnym i nie jest to porada inwestycyjna. Zapoznaj się z naszymi ujawnienie informacji o stowarzyszeniu.

Trwający boom na sztuczną inteligencję (AI) przyczynia się do wzrostu liczby centrów danych, co z kolei zwiększa zapotrzebowanie na energię potrzebną do zasilania i chłodzenia serwerów w nich zainstalowanych.
Chociaż na świecie działa ponad 8,000 centrów danych, z czego większość znajduje się w USA, w nadchodzących latach liczba ta znacznie wzrośnie.
Według szacunków Boston Consulting Group, popyt na centra danych będzie rósł o 15% do 20% rocznie do 2030 roku. W tym momencie firma spodziewa się, że będą one stanowić 16% całkowitego zużycia energii w USA, w porównaniu z zaledwie 2.5% przed wydaniem ChatGPT firmy OpenAI w 2022 roku.
Tymczasem specjalny raport na temat energii i sztucznej inteligencji z Międzynarodowej Agencji Energetycznej (IEA) opublikowanej w tym roku, przewiduje, że popyt na energię elektryczną z centrów danych na całym świecie co najmniej podwoi się do końca tej dekady do około 945 TWh. Jest to prawie tyle samo, ile zużywa Japonia dzisiaj.
Autonomiczna organizacja międzyrządowa z siedzibą w Paryżu podaje, że największą siłą napędową tego wzrostu jest sztuczna inteligencja. Przewiduje się, że zapotrzebowanie na energię elektryczną w centrach danych zoptymalizowanych pod kątem sztucznej inteligencji wzrośnie ponad czterokrotnie do 2030 r.
W USA konkretnie zużycie energii przez centra danych już teraz będzie stanowić około połowę wzrostu zapotrzebowania na energię elektryczną między teraz a 2030 rokiem. Napędzana przez wykorzystanie sztucznej inteligencji gospodarka USA, zgodnie z raportem, będzie zużywać więcej energii elektrycznej do przetwarzania danych w tym momencie niż do produkcji wszystkich energochłonnych dóbr razem wziętych.
Ten nienasycony głód energii stanowi ogromny problem w rozwoju i adopcji AI. Jednak pozytywną stroną jest rosnąca liczba badaczy i firm pracujących nad zmniejszeniem zużycia energii przez AI i uczynieniem jej bardziej energooszczędną.
Co ciekawe, wiele z tych inicjatyw wykorzystuje sztuczną inteligencję do rozwiązywania własnych problemów energetycznych.
Zaledwie w tym miesiącu zespół badaczy zaprezentował nowy układ scalony, który wykorzystuje sztuczną inteligencję do zmniejszenia zużycia energii przez duże modele językowe (LLM) o 50%, co stanowi ważny krok w kierunku uczynienia LLM opłacalnymi i bardziej zrównoważonymi w eksploatacji.
Nowy układ wykorzystuje sztuczną inteligencję, aby zmniejszyć zużycie energii w LLM

Naukowcy z Oregon State University College of Engineering opracowali nowy, wydajny układ AI, który ma rozwiązać problem ogromnego zużycia energii elektrycznej w aplikacjach AI na studiach LLM, takich jak OpenAI GPT-4 i Google Gemini.
Model dużego języka (LLM), będący rodzajem modelu uczenia maszynowego (ML), jest wstępnie trenowany na ogromnych ilościach danych w celu wykonywania zadań przetwarzania języka naturalnego (NLP), takich jak generowanie tekstu, podsumowywanie, upraszczanie, rozumowanie tekstowe, tłumaczenie językowe i inne.
Do najpopularniejszych i najszerzej wykorzystywanych obecnie chatbotów zaliczają się: GPT-4o, o3 i o1 firmy OpenAI, Gemini i Gemma firmy Google, Llama firmy Meta, R1 i V3 firmy DeepSeek, Claude firmy Anthropic, Nova firmy Amazon, Phi firmy Microsoft i Grok firmy xAI.
W ciągu ostatnich kilku lat LLM całkowicie przekształciły dziedzinę AI, umożliwiając maszynom zrozumienie i generowanie tekstu podobnego do ludzkiego z większą dokładnością. Jednak ta ewolucja LLM spowodowała wykładniczy wzrost ich rozmiaru.
Rozmiar modelu LLM, mierzony liczbą parametrów, jest głównym czynnikiem wpływającym na jego zużycie energii. Oznacza to, że im większy model, tym większe zapotrzebowanie na moc obliczeniową do trenowania i wnioskowania.
Na przykład ChatGPT-1 miał nieco poniżej 120 milionów parametrów, podczas gdy w przypadku GPT-175 liczba ta wzrosła do 3 miliardów parametrów, a w przypadku GPT-1.8 osiągnęła około 4 biliona parametrów.
Ten ogromny wzrost wielkości i możliwości modeli LLM oznacza również wzrost ich zużycia energii na niespotykaną dotąd skalę. Oprócz rozmiaru modelu, na zużycie energii przez modele LLM wpływają takie czynniki, jak rodzaj sprzętu używanego do trenowania tych modeli, czas trwania procesu trenowania, infrastruktura, tj. centra danych, przetwarzanie danych, optymalizacja modelu i wydajność algorytmu.
Stąd nowy chip od badaczy z OSU. Według Tejasvi Ananda, profesora nadzwyczajnego inżynierii elektrycznej na OSU, który kieruje również Mixed Signal Circuits and Systems Lab na uniwersytecie:
„Problem polega na tym, że energia wymagana do przesłania pojedynczego bitu nie jest redukowana w takim samym tempie, w jakim rośnie zapotrzebowanie na szybkość transmisji danych. To właśnie powoduje, że centra danych zużywają tak dużo energii”.
Aby przezwyciężyć ten problem, zespół zaprojektował i stworzył nowy układ scalony, który zużywa o połowę mniej energii w porównaniu do konwencjonalnych konstrukcji.
Anand i doktorant Ramin Javad zaprezentowali tę nową technologię na konferencji IEEE Custom Integrated Circuits (CIC), która odbyła się w Bostonie w zeszłym miesiącu. Konferencja, która obejmuje fora, panele, wystawy i prezentacje ustne, poświęcona jest rozwojowi układów scalonych, które stanowią podstawę nowoczesnych systemów elektronicznych, zapewniając funkcjonalność i moc przetwarzania w kompaktowej i wydajnej obudowie.
Najnowsza technologia została stworzona przy wsparciu Center for Ubiquitous Connectivity (CUbiC), Semiconductor Research Corporation (SRC) i Defense Advanced Research Projects Agency (DARPA). Javadi otrzymała również nagrodę Best Student Paper Award na konferencji.
W nowym układzie scalonym naukowcy wykorzystali zasady sztucznej inteligencji, które – jak zauważył Javadi – zmniejszają zużycie energii elektrycznej potrzebnej do przetwarzania sygnałów.
Jak wyjaśnił, LLM wysyłają i odbierają wiele danych przez połączenia przewodowe, które są miedzianymi łączami komunikacyjnymi w centrach danych. Cały ten proces wymaga znacznej energii, więc jednym z potencjalnych „rozwiązań jest opracowanie bardziej wydajnych chipów do komunikacji przewodowej”.
Javadi zauważył ponadto, że gdy dane są wysyłane z dużą prędkością, w rzeczywistości ulegają uszkodzeniu na końcu odbiornika, w związku z czym należy je oczyścić. W tym celu większość istniejących systemów komunikacji przewodowej wykorzystuje korektor, który zużywa dużo energii.
„Wykorzystujemy zasady sztucznej inteligencji w układzie scalonym, aby odzyskiwać dane w sposób inteligentniejszy i wydajniejszy, ucząc klasyfikator wbudowany w układ rozpoznawania i korygowania błędów”.
– Jawadi
Choć jest to duży rozwój, to jest to tylko początkowa wersja układu. Jego następna iteracja jest obecnie w trakcie opracowywania, aby jeszcze bardziej zwiększyć jego efektywność energetyczną.
Ogólnie rzecz biorąc, te trwające badania wykazują ogromny potencjał, aby mieć dalekosiężne implikacje dla przyszłości infrastruktury AI i operacji centrów danych. Ale oczywiście wymagałoby to pomyślnej implementacji technologii na dużą skalę, co nigdy nie jest łatwym zadaniem.
Ograniczanie apetytu AI na energię dzięki przełomom na różnych poziomach
Ten najnowszy rozwój chipa to tylko jeden z wielu projektów badawczych zajmujących się problemem zużycia energii przez AI. Przyjrzyjmy się zatem pokrótce innowacyjnym sposobom, w jakie badacze podeszli do tego problemu.
Wykorzystanie światła do zwiększenia efektywności energetycznej AI
Na początku tego roku naukowcy z USST rozwinięty1 mikroskopijny chip AI, mniejszy niż pyłek kurzu lub ziarnko soli, który wykorzystuje światło do przetwarzania danych z kabli światłowodowych. Obiecuje to szybsze obliczenia przy mniejszym zużyciu energii.
Układ scalony manipuluje światłem, aby wykonywać obliczenia natychmiast, zamiast interpretować sygnały świetlne, jak robią to tradycyjne komputery. W tym celu wykorzystuje „całkowicie optyczną dyfrakcyjną głęboką sieć neuronową”, technologię wykorzystującą wzorzyste, drukowane w 3D warstwy komponentów ułożone razem. Chociaż jest to przełomowe, wyzwania takie jak projekt specyficzny dla danego zadania, wrażliwość na niedoskonałości i trudności w produkcji na dużą skalę muszą zostać pokonane, aby osiągnąć „bezprecedensowe funkcjonalności” w obrazowaniu endoskopowym, komputerach kwantowych i centrach danych.
Kilka miesięcy wcześniej naukowcy z MIT wykorzystali światło do wykonania kluczowych operacji sieci neuronowej na układzie scalonym, co pozwoliło na ultraszybkie obliczenia AI (trwające pół nanosekundy) z dokładnością 92% i ogromną efektywnością energetyczną.
„Praca ta pokazuje, że obliczenia — w swej istocie mapowanie danych wejściowych na dane wyjściowe — można skompilować na nowe architektury fizyki liniowej i nieliniowej, które umożliwiają fundamentalnie inne prawo skalowania obliczeń w stosunku do wymaganego wysiłku”.
– Starszy autor Dirk Englund
Naukowcy opracował układ fotoniczny2, który składa się z połączonych ze sobą modułów tworzących optyczną sieć neuronową. Co ciekawe, wykorzystanie komercyjnych procesów odlewniczych do jego produkcji oznacza, że można go skalować i integrować z elektroniką. Ponadto naukowcy pokonali wyzwanie nieliniowości w optyce, projektując nieliniowe jednostki funkcji optycznych (NOFU), które łączą elektronikę i optykę.
Narzędzie programowe do szkolenia AI i system chłodzenia dla centrów danych

Tymczasem naukowcy z Uniwersytetu Michigan ukierunkowane na marnotrawstwo energii powstaje w trakcie szkolenia sztucznej inteligencji, a dokładniej, gdy jest ona dzielona pomiędzy procesory graficzne, co jest koniecznością nierównomiernego przetwarzania ogromnych zbiorów danych.
W związku z tym opracowali narzędzie programowe o nazwie Perseus, które identyfikuje podzadania, których ukończenie zajmie najwięcej czasu, a następnie zmniejsza prędkość procesorów, które nie znajdują się na tej „ścieżce krytycznej”, aby umożliwić im wszystkim równoczesne wykonywanie swoich zadań, eliminując w ten sposób zbędne zużycie energii.
To narzędzie typu open source jest dostępne jako część Zeusa, narzędzia do pomiaru i optymalizacji zużycia energii przez sztuczną inteligencję.
Tymczasem naukowcy z Uniwersytetu Missouri zwrócili się ku opracowywanie systemu chłodzenia nowej generacji aby pomóc centrom danych stać się bardziej energooszczędnymi. Tworzą również system chłodzenia, aby łatwo podłączać i odłączać je w szafach serwerowych.
„Chłodzenie i produkcja chipów idą ręka w rękę. Bez odpowiedniego chłodzenia komponenty przegrzewają się i zawodzą. Energooszczędne centra danych będą kluczowe dla przyszłości obliczeń AI”.
- Chanwoo Park, profesor inżynierii mechanicznej i lotniczej w Mizzou College of Engineering
Dzięki wsparciu w wysokości 1.5 miliona dolarów z inicjatywy DOE COOLERCHIPS zespół opracował dwufazowy system chłodzenia, który odprowadza ciepło z chipów serwerowych poprzez zmianę fazy. Nie tylko może on działać pasywnie, nie zużywając energii, gdy jest to potrzebne do mniejszego chłodzenia, ale nawet w trybie aktywnym system zużywa bardzo małą ilość.
Sprzęt CRAM może zmniejszyć zużycie energii przez AI o 1000x
Ostatniego lata inżynierowie z University of Minnesota Twin Cities opracowano zaawansowane urządzenie sprzętowe3 co mogłoby zmniejszyć zużycie energii przez sztuczną inteligencję około 1,000 razy.
Ten nowy model nazywa się pamięcią obliczeniową o swobodnym dostępie (CRAM). W tym przypadku dane nigdy nie opuszczają pamięci, lecz są w całości przetwarzane wewnątrz macierzy pamięci, co eliminuje potrzebę energochłonnych i powolnych transferów danych.
Prace nad tym badaniem, trwające dwie dekady, są częścią wysiłków zespołu, mających na celu rozwinięcie opatentowanych badań starszego autora, Jian-Ping Wanga, nad urządzeniami z magnetycznymi złączami tunelowymi (MTJ). Te nanostrukturalne urządzenia są wykorzystywane do ulepszania czujników, dysków twardych i innych systemów mikroelektronicznych, takich jak pamięć magnetyczna o swobodnym dostępie (MRAM).
„Jako niezwykle energooszczędny cyfrowy substrat obliczeniowy w pamięci, CRAM jest bardzo elastyczny, ponieważ obliczenia mogą być wykonywane w dowolnym miejscu w macierzy pamięci” — zauważył współautor Ulya Karpuzcu, adiunkt w Katedrze Inżynierii Elektrycznej i Komputerowej. Ponadto można go rekonfigurować, aby najlepiej odpowiadał potrzebom wydajnościowym różnych algorytmów.
Sztuczna inteligencja inspirowana mózgiem: redukcja zużycia energii poprzez naśladowanie ludzkiej wydajności
Jak więc widzieliśmy, badacze przyglądają się różnym aspektom AI, aby poradzić sobie z problemami energetycznymi. Co ciekawe, zwracają się również do ludzkiego mózgu w poszukiwaniu inspiracji. To ma sens, w końcu AI to symulacja procesów ludzkiej inteligencji przez maszyny, chociaż to nigdzie w pobliżu ludzkiego myślenia i rozumowania ze względu na jego zdolność do generalizowania w różnych wariantach, która jest „znacznie słabsza niż ludzkie poznanie”.
Badania nad redukcją energii inspirowane mózgiem obejmują pracę profesora nadzwyczajnego Chang Xu z University's Sydney AI Centre, który zauważył, że LLM wykorzystujący zasoby w pełni, nawet w przypadku prostych zadań, nie jest właściwym sposobem działania. Wyjaśnił:
„Myśląc o zdrowym ludzkim mózgu – nie aktywuje on wszystkich neuronów ani nie wykorzystuje całej swojej mocy naraz. Działa z niewiarygodną efektywnością energetyczną, zużywając zaledwie 20 watów mocy, mimo że ma około 100 miliardów neuronów, które selektywnie wykorzystuje z różnych półkul mózgu do wykonywania różnych zadań lub procesów myślowych”.
W związku z tym opracowują algorytmy, które omijają zbędne, zbędne obliczenia i nie przechodzą automatycznie na wysokie obroty.
W innych przypadkach badania czerpały inspirację z neuromodulacji mózgu i stworzyły algorytm zwany „system składowania„Aby zmniejszyć zużycie energii o 37% bez pogorszenia dokładności, funkcja samonaprawiania komórek mózgowych zwana astrocyty do urządzeń sprzętowychi uzyskał neuromorficzną (inspirowaną mózgiem) formę obliczeniową (memrystory) pracować razem w kilku podgrupach sieci neuronowych.
Inwestowanie w sztuczną inteligencję
Globalna firma produkująca półprzewodniki, AMD (AMD ) jest znany ze swoich wysokowydajnych technologii obliczeniowych, graficznych i wizualizacyjnych. Podczas gdy jest w bezpośredniej konkurencji z ulubieńcem AI NVIDIA (NVDA ), szybko zyskuje na znaczeniu na rynkach centrów danych i akceleratorów AI. Seria MI300 jest przeznaczona specjalnie dla obciążeń AI i aplikacji HPC generacji.
Wiodąca pozycja na rynku procesorów dla centrów danych, silne ukierunkowanie na prace badawczo-rozwojowe, wzrost przychodów, baza klientów i przejęcia czynią AMD silnym graczem w tym sektorze.
Advanced Micro Devices (AMD )
W 2022 r. AMD zawarło rekordową umowę branżową w zakresie chipów o wartości 50 mld USD, przejmując Xilinx, aby stać się liderem branży w zakresie wysokowydajnych i adaptacyjnych obliczeń. A ostatnio sfinalizowało przejęcie ZT Systems, aby zająć się wartym 500 mld USD akceleratorem AI w centrach danych w 2028 r.
Wyniki rynkowe AMD również odnotowują poprawę w tym roku po tym, jak uderzyły w nie turbulencje taryfowe. W chwili pisania tego tekstu akcje AMD są notowane po 120 USD, co stanowi spadek o 6.9% YTD, ale tylko o około 47% w stosunku do szczytu z marca 2024 r. Dzięki temu kapitalizacja rynkowa wynosi 182.34 mld USD, a EPS (TTM) wynosi 1.36, a P/E (TTM) 82.44.
Jeśli chodzi o finanse firmy, AMD odnotowało 36% wzrost przychodów rok do roku do 7.4 miliarda dolarów w pierwszym kwartale 1 r., co CEO dr Lisa Su nazwała „wyjątkowym początkiem” roku, „pomimo dynamicznego otoczenia makroekonomicznego i regulacyjnego”. Wzrost ten był napędzany przez „rozszerzające się centrum danych i dynamikę AI” — dodała.
W tym okresie dochód operacyjny AMD wyniósł 806 milionów dolarów, dochód netto 709 milionów dolarów, a rozwodniony zysk na akcję 0.44 dolara. Na drugi kwartał 2 roku firma prognozuje przychody w wysokości około 2025 miliarda dolarów.
Do najważniejszych osiągnięć firmy należy zaliczyć rozszerzenie strategicznych partnerstw z Platformy Meta, Inc. (META ) (Lama), Alphabet Inc. (GOOGL ) (Pączek), Oracle Corporation (ORCL ), Core42, Dell Technologies (DELL )i inne. AMD wraz z Nokią, Cisco Systems, Inc (CSCO )i Jio ogłosiły również nową platformę Open Telecom AI, która ma oferować rozwiązania oparte na sztucznej inteligencji, zwiększające wydajność, bezpieczeństwo i możliwości.
W tym tygodniu AMD i Nvidia nawiązały współpracę z Humain, spółką zależną Public Investment Fund z Arabii Saudyjskiej, specjalizującą się w sztucznej inteligencji. Jej celem jest dostarczenie półprzewodników na potrzeby dużego projektu centrum danych, którego przepustowość ma wynieść 500 MW.
Najnowsze trendy i rozwój zaawansowanych mikrourządzeń (AMD)
Wniosek
W ciągu ostatnich kilku lat szaleństwo na punkcie AI odnotowało gwałtowny wzrost i to z dobrych powodów. W końcu ta technologia ma ogromny potencjał, aby przekształcić szeroki wachlarz branż, od opieki zdrowotnej, produkcji i nauki o materiałach po finanse, rozrywkę, edukację, handel detaliczny i cyberbezpieczeństwo.
Jednakże postęp technologiczny, coraz powszechniejsze wdrażanie i późniejsza ekspansja tych metod LLM spowodowały znaczny popyt na energię, co przyczynia się do emisji gazów cieplarnianych (GHG) i zmiany klimatu, zwiększa koszty ekonomiczne i wpływa na zrównoważony rozwój technologii.
Stanowi to poważne wyzwanie dla AI. Jeśli chcemy w pełni wykorzystać jej prawdziwy potencjał pod względem obniżonych kosztów, zwiększonej produktywności i ulepszonego podejmowania decyzji na dużą skalę, modele muszą osiągnąć opłacalność i zrównoważony rozwój.
Dobrą wiadomością jest jednak to, że naukowcy na całym świecie już ciężko pracują nad zwiększeniem energooszczędności sztucznej inteligencji, o czym świadczy chociażby oparty na sztucznej inteligencji układ scalony Uniwersytetu Stanowego Oregonu, który sugeruje duże prawdopodobieństwo powiązania innowacji ze zrównoważonym rozwojem.
Oczywiście, proponowane technologie muszą pokonać największą przeszkodę w osiągnięciu realnego wpływu, skalowalności. Mimo to jedno jest jasne: bardziej zielona przyszłość AI jest możliwa i nadchodzi!
Kliknij tutaj, aby dowiedzieć się wszystkiego o inwestowaniu w sztuczną inteligencję.
Przywoływane badania:
1. Yu, H., Huang, Z., Lamon, S., Wu, J., Zhao, Z., Lin, D., Zhao, H., Zhang, J., Lu, C., Liu, H., Zhang, X., & Zhang, C. (2025). Całkowicie optyczny transport obrazu przez światłowód wielomodowy przy użyciu zminiaturyzowanej dyfrakcyjnej sieci neuronowej na dystalnej powierzchni. Nature Photonics, 19, 486–493. https://doi.org/10.1038/s41566-025-01621-4
2. Bandyopadhyay, S., Sludds, A., Krastanov, S., Youssry, A., Zhang, L., Lian, C., Yu, S., Desiatov, B., Burek, MJ, Lukin, MD i Lončar, M. (2024). Jednoprocesorowa fotoniczna głęboka sieć neuronowa z treningiem wyłącznie w przód. Nature Photonics, 18, 1335–1343. https://doi.org/10.1038/s41566-024-01567-z
3. Lv, Y., Zink, BR, Bloom, RP, Roy, A., Vaddi, K., Shang, L. i Manipatruni, S. (2024). Eksperymentalna demonstracja pamięci obliczeniowej o swobodnym dostępie opartej na złączu tunelowym magnetycznym. npj Unconventional Computing, 1, 3. https://doi.org/10.1038/s44335-024-00003-3










