Artificial Intelligence
Czy Gemini firmy Google jest teraz liderem wyścigu sztucznej inteligencji?
Securities.io utrzymuje rygorystyczne standardy redakcyjne i może otrzymywać wynagrodzenie z przeglądanych linków. Nie jesteśmy zarejestrowanym doradcą inwestycyjnym i nie jest to porada inwestycyjna. Zapoznaj się z naszymi ujawnienie informacji o stowarzyszeniu.

Rozwój technologii AI słusznie opisano jako wyścig, w którym prywatne startupy, takie jak OpenAI i Anthropic, rywalizują ze sobą jak równy z równym z gigantami technologicznymi, takimi jak Microsoft (MSFT ) i Google (GOOGL )Wyścig ten napędzany jest inwestycjami wartymi setki miliardów dolarów, nie tylko w rozwój oprogramowania, ale także ogromnymi wydatkami kapitałowymi na budowę coraz większych i bardziej energochłonnych centrów danych AI służących do szkolenia najnowszych modeli.
Tymczasem chińskie modele również rozwijają się w szybkim tempie, dodając poczucia pilności i rywalizacji geopolitycznej wysiłkom zachodnich firm.
Ostatnio wydaje się, że Google Gemini wyprzedza konkurencję, zwłaszcza po premierze Gemini 3 Deep Think, modelu skoncentrowanego na realistycznym rozumieniu nie tylko języków, ale także świata fizycznego. Co więcej, Google jest również wybierany przez Apple. (AAPL ) aby zasilać sztuczną inteligencję urządzeń firmy i rozwijać działalność w zakresie produkcji układów scalonych wykorzystujących sztuczną inteligencję.
Gemini 3 Głęboka myśl: Co się zmieniło?
Uwolnienie głębokiego myślenia
Wraz z premierą 12 lutegothW 2026 r. w ramach Gemini 3 Deep Think firma Google wykonała zdecydowany krok naprzód w przejściu od sztucznej inteligencji skoncentrowanej głównie na wyszukiwaniu i języku (LLM) w stronę bardziej ogólnej sztucznej inteligencji, która jest w stanie zrozumieć świat fizyczny.
To ważny rozwój, ponieważ branża zmierza w kierunku „sztucznej inteligencji fizycznej”, a ten trend szczegółowo omówiliśmy w artykule „Sztuczna inteligencja fizyczna: Inwestowanie w boom na roboty humanoidalne w 2026 r.".
Na razie nowa technologia Deep Think jest dostępna w aplikacji Gemini dla subskrybentów usługi Google AI Ultra, a po raz pierwszy za pośrednictwem interfejsu API Gemini mogą z niej korzystać wybrani badacze, inżynierowie i przedsiębiorstwa. Dzięki temu ta sztuczna inteligencja jest już dostępna komercyjnie, a nie tylko jako model testowy.
Matematyka i nauki ścisłe na pierwszym miejscu
Cechą wyróżniającą Deep Think od poprzednich wersji Gemini, a w pewnym stopniu także od innych SI, jest skupienie się na rozumieniu matematyki.
Modele LLM notorycznie słabo radzą sobie z prostymi zadaniami matematycznymi, czasami nie zdając nawet prostych zadań dodawania czy liczenia po kolei. Nie dotyczy to jednak Deep Think, który umożliwił wyspecjalizowanym agentom prowadzenie badań matematycznych na poziomie badawczym. Model ten znacznie przewyższa inne modele w testach z matematyki i przedmiotów ścisłych. Sprawdza się również bardzo dobrze w zadaniach z kodowania.

Źródło: Google
Różnica w stosunku do Gemini Pro Preview jest jeszcze bardziej widoczna w testach o tematyce naukowej, z Międzynarodowych Olimpiad Matematycznych i Międzynarodowych Olimpiad Chemicznych, w których Gemini uzyskało wynik około 82%, podczas gdy test matematyczny poprzedniego modelu Google LLM uzyskał zaledwie 14%.

Źródło: Google
Uzyskanie tych wyników było możliwe dzięki zupełnie innej architekturze niż w przypadku „klasycznych SI”, które cierpią na halucynacje, gdy danych jest zbyt mało, co z definicji zawsze będzie się zdarzać w przypadku najnowszych odkryć naukowych.
Na przykład, w przypadku czystej matematyki, agent badawczy zajmujący się matematyką (wewnętrznie o nazwie kodowej Aletheia), oparty na technologii Gemini Deep Think, oferuje weryfikator języka naturalnego, który identyfikuje błędy w potencjalnych rozwiązaniach. Umożliwia on iteracyjny proces generowania i korygowania rozwiązań. Co najważniejsze, agent ten potrafi przyznać się do niepowodzenia w rozwiązaniu problemu, co jest kluczową cechą, która poprawiła wydajność badaczy.

Źródło: Google
To podejście nie tylko daje skuteczniejsze wyniki, ale jest również bardziej wydajne, gdyż firma Aletheia wykazała, że wyższą jakość rozumowania można osiągnąć przy krótszym czasie obliczeń wnioskowania.
Podejście to można rozszerzyć z matematyki na inne nauki fizyczne. Na przykład, projekt Gemini Deep Think odkrył, jak wykorzystać „nowatorskie rozwiązanie wykorzystujące wielomiany Gegenbauera” do obliczenia promieniowania grawitacyjnego ze strun kosmicznych.
Prawdziwe zastosowania nauki
Wydajność ta znajduje już zastosowanie w rzeczywistych zastosowaniach naukowych badaczy.
Na przykład matematyczka Lisa Carbone z Uniwersytetu Rutgersa użyła Deep Think, aby znaleźć błąd logiczny, który umknął uwadze recenzentów w wysoce specjalistycznym artykule matematycznym na temat teorii grawitacji Einsteina i mechaniki kwantowej.
Rozwiązanie Deep Think wykorzystano również w laboratorium Wanga na Uniwersytecie Duke’a do opracowania przepisu na wytwarzanie cienkich warstw półprzewodnikowych o średnicy większej niż 100 mikrometrów, co wcześniej było trudnym zadaniem.
Dystrybucja, sprzęt i strategiczny moment obrotowy
Osiągnięcie Deep Think to kolejne dobre wieści dla zespołu Google zajmującego się sztuczną inteligencją.
Najważniejsza była decyzja Apple, jedynego giganta technologicznego, który w dużej mierze odpuścił wyścig o sztuczną inteligencję, o przyjęciu Gemini jako domyślnej sztucznej inteligencji w urządzeniach Apple. W tym kontekście ma sens, że OpenAI ogłosiło w grudniu 2025 r. „kod czerwony” dotyczący postępów Google i innych firm zajmujących się sztuczną inteligencją.
Baza użytkowników Gemini zaczęła rosnąć od czasu premiery w sierpniu generatora obrazów Nano Banana, a Google poinformowało, że liczba aktywnych użytkowników miesięcznie wzrosła z 450 milionów w lipcu do 650 milionów w październiku.
OpenAI zmaga się również z presją ze strony Anthropic, który zyskuje coraz większą popularność wśród klientów biznesowych.”
Kolejnym niedawnym sukcesem Google jest sukces jego układów AI. Po pierwsze, to właśnie Anthropic ogłosił, że zacznie korzystać z układów sztucznej inteligencji Google’a, zwanych TPU (jednostki przetwarzania tensorów), w tym wykorzystujące do 1 miliona procesorów do zasilania oprogramowania AI. Teraz Konkurencyjna firma zajmująca się sztuczną inteligencją Meta również dołącza do grona korzystających z procesorów TPU firmy Google, stawiając pod znakiem zapytania, czy Google staje się konkurentem dla Nvidii (NVDA ) tyle samo co OpenAI.
(Więcej na temat układów TPU i innego sprzętu skupionego na sztucznej inteligencji, takiego jak XPU, FPGA itp., można przeczytać w „Inwestowanie w sprzęt AI: od procesorów do jednostek XPU")
Strategia Alphabet w zakresie sztucznej inteligencji: integracja pionowa na dużą skalę
Przesuń, aby przewijać →
| Firma | Modelowe skupienie | Strategia sprzętowa | Kontrola dystrybucji | Integracja pionowa |
|---|---|---|---|---|
| Alphabet | Bliźnięta 3 Głębokie myślenie (matematyka/nauka) | Własne układy TPU | Android + wyszukiwanie + potencjalne trasy Apple | Pełny stos (Chip → Chmura → Konsument) |
| Microsoft/OpenAI | Modele GPT (ogólne LLM) | Procesory graficzne Nvidia za pośrednictwem platformy Azure | Windows + Enterprise SaaS | Częściowa |
| Meta | Lama (waga otwarta) | Procesory graficzne + niestandardowy krzem | Platformy społecznościowe | Umiarkowany |
| Antropiczny | Claude (Enterprise Focus) | Google TPU | API + Oferty korporacyjne | Niski |
Skupienie się na procesorach TPU dobrze obrazuje strategię Google. Solidne programy LLM, takie jak Gemini, i doskonała wydajność w praktycznych zastosowaniach, takich jak Deep Think, są oczywiście bardzo ważne.
Jednak to w zakresie kontroli dystrybucji sztucznej inteligencji, struktury kosztów i dostępu do kapitału Google utrzymuje mocną pozycję.
Obecność Google na rynku urządzeń mobilnych za pośrednictwem systemu Android jest już silna, ale umowa z Apple niemal gwarantuje, że większość żądań AI, które nie są kierowane bezpośrednio do konkretnej aplikacji AI, będzie kierowana bezpośrednio lub pośrednio do Gemini.
Drugim czynnikiem jest rosnące uzależnienie od procesorów TPU. Według niektórych raportów, procesory TPU są o około 30% tańsze niż procesory graficzne Nvidia i zapewniają 2–4 razy lepszą wydajność w przeliczeniu na dolara przy porównywalnych obciążeniach. Niższe zużycie energii przy tej samej mocy obliczeniowej to nie tylko kwestia finansowa; pomaga również w skalowaniu centrów danych AI pomimo narastających ograniczeń w dostawach energii.
Wreszcie, poziom integracji pionowej — począwszy od TPU, poprzez bezpośrednio posiadane centra danych, platformę chmurową dla przedsiębiorstw, a następnie kanał dystrybucji konsumenckiej — jest bezkonkurencyjny w branży, a w segmencie przedsiębiorstw tylko Microsoft może się do niego zbliżyć.
Wreszcie, budowa infrastruktury AI okazała się niezwykle kosztowna. Te warte setki miliardów dolarów chipy i centra danych muszą teraz zostać spłacone, co generuje ogromne koszty amortyzacji w bilansie każdego roku. Skala przepływów pieniężnych Alphabetu z wyszukiwarek, YouTube, Androida i innych produktów sprawia, że firma jest w stanie lepiej poradzić sobie zarówno z początkowymi kosztami, jak i przyszłym utrzymaniem tej infrastruktury.
Czy Bliźnięta rzeczywiście wysuwają się do przodu?
Oczekiwanie konkretnego „zwycięzcy” wyścigu sztucznej inteligencji jest z pewnością przedwczesne. Na przykład, cały obecny paradygmat mógłby się zmienić, gdyby… orbitalne centra danych połączonej firmy xAI/Space okazują się silną przewagą konkurencyjną.
Wygląda jednak na to, że można dostrzec pewne trendy działające na korzyść Google.
Pierwszą z nich jest potrzeba wyspecjalizowanego sprzętu AI, dziedziny, w której wielu gigantów technologicznych pozostaje w tyle, co daje przewagę producentom układów scalonych i Google.
Drugim jest znaczenie kontroli dystrybucji dla ogółu społeczeństwa, które może nie być do końca świadome, z jakiej sztucznej inteligencji może lub powinna korzystać. Pod tym względem bezpośredni dostęp do całego ekosystemu Apple odzwierciedla wcześniejszą strategię, polegającą na uczynieniu Google domyślną wyszukiwarką na iPhone'ach (co doprowadziło do wydania orzeczeń antymonopolowych w USA pod koniec 2025 r., ponieważ było „zbyt korzystne”).
Dzięki biegłości Deep Think w matematyce i naukach ścisłych, Google ma przed sobą świetny start w 2026 rok, jeśli chodzi o sztuczną inteligencję. Czy ta wiodąca pozycja utrzyma się długo pomimo oporu ze strony OpenAI, Microsoftu, Meta, Anthropic i niezliczonej liczby chińskich modeli – w tym chińskich gigantów technologicznych, takich jak Alibaba? (BABA ) lub ByteDance — to się dopiero okaże.







