Akcje IBM rosną po ogłoszeniu partnerstwa z Groq

Akcje IBM rosną po ogłoszeniu partnerstwa z Groq
Photo by Carson Masterson / Unsplash

IBM i Groq łączą siły, by przyspieszyć wdrożenia sztucznej inteligencji w przedsiębiorstwach. Akcje IBM wzrosły, a rynek reaguje entuzjastycznie na obietnicę AI pięć razy szybszej niż tradycyjne rozwiązania.


Dzień, który zmienił zasady gry

Poniedziałek, 20 października 2025 roku. Dla inwestorów śledzących sektor technologiczny to data, która może zapisać się w annałach historii sztucznej inteligencji. IBM ogłosił strategiczne partnerstwo z Groq – firmą, która obiecuje zrewolucjonizować sposób, w jaki przedsiębiorstwa wykorzystują AI. Reakcja rynku? Natychmiastowa. Akcje IBM wzrosły o 0,6 procent, a wśród analityków rozgorzała dyskusja: czy to zapowiedź nowej dominacji Big Blue w erze inteligentnych agentów?

To nie jest kolejne partnerstwo technologiczne. To połączenie dwóch światów: doświadczenia korporacyjnego giganta z przełomową architekturą sprzętową, która ma być alternatywą dla dominującej w tym sektorze Nvidii. Mowa o "agentic AI", czyli autonomicznych systemach sztucznej inteligencji zdolnych do samodzielnego podejmowania decyzji i wykonywania złożonych zadań.

W tym artykule przyjrzymy się, co faktycznie oznacza to partnerstwo, dlaczego architektura LPU firmy Groq budzi tak wielkie emocje i jak zmieni to życie przedsiębiorstw na całym świecie.


Czym właściwie jest Groq i dlaczego wszyscy o nim mówią?

Startup, który rzuca wyzwanie gigantom

Groq to nie literówka w nazwie popularnego chatbota. To firma z Doliny Krzemowej założona w 2016 roku przez Jonathana Rossa – jednego z architektów Tensor Processing Unit (TPU) w Google. Ross wiedział, jak budować akceleratory AI dla gigantów. Teraz postanowił zbudować coś lepszego – i na własnych zasadach.

Firma przez lata działała w cieniu, rozwijając swoją tajną broń: Language Processing Unit, w skrócie LPU. We wrześniu 2025 roku Groq pozyskał 750 milionów dolarów w rundzie finansowania prowadzonej przez Disruptive, osiągając wycenę 6,9 miliarda dolarów. Łącznie firma zebrała już 1,8 miliarda dolarów, co uczyniło ją jednym z najgorętszych unicornów w świecie AI.

Ale to nie kapitał budzi największe emocje. To technologia.

LPU vs GPU – pojedynek tytanów

Przez dekady procesory graficzne (GPU) firmy Nvidia dominowały w obliczeniach AI. Były do tego przystosowane lepiej niż tradycyjne CPU, ale miały jeden zasadniczy problem: nie zostały zaprojektowane z myślą o inferecji modeli językowych. GPU świetnie radzi się z niezależnymi, równoległymi operacjami – jak renderowanie milionów pikseli jednocześnie. Ale duże modele językowe działają inaczej. Wymagają sekwencyjnego przetwarzania, gdzie każdy token (jednostka tekstu) zależy od poprzednich.

Groq podszedł do problemu od zupełnie innej strony. LPU został zaprojektowany od podstaw dla inferecji AI – nie treningu, tylko wykorzystywania już wytrenowanych modeli w produkcji. Wyniki? IBM twierdzi, że LPU Groqa dostarcza ponad pięciokrotnie szybszą i bardziej opłacalną inferecję niż tradycyjne systemy GPU, przy konsekwentnie niskiej latencji nawet przy skalowaniu obciążeń.

To różnica jak między samochodem sportowym a ciężarówką. Oba mają swoje zastosowanie, ale jeśli chodzi o wyścigi – sportówka wygrywa.


Architektura LPU: Co sprawia, że jest tak szybka?

Programowalna linia montażowa

Wyobraź sobie fabrykę samochodów. Tradycyjna architektura GPU przypomina system "gwiazdy i szprych" (hub and spoke), gdzie centralna jednostka koordynuje pracę wielu mniejszych. To działa, ale tworzy wąskie gardła.

LPU Groqa działa jak linia montażowa. Instrukcje i dane przemieszczają się przez chip na "przenośnikach taśmowych" między jednostkami SIMD (Single Instruction, Multiple Data). Każda jednostka funkcjonalna otrzymuje instrukcję przez ten przenośnik, wie dokładnie, skąd wziąć dane wejściowe, jaką operację wykonać i gdzie umieścić wynik. Wszystko kontrolowane programowo – bez potrzeby synchronizacji na poziomie sprzętu.

Ta architektura nazywana jest "programmable assembly line" i pozwala na przewidywalność wykonania operacji co do pojedynczego cyklu zegara. To coś, czego GPU nigdy nie osiągnie ze względu na swoją architekturę.

Determinizm jako przewaga konkurencyjna

Tradycyjne procesory mają wbudowane źródła niedeterminizmu: hierarchie pamięci cache, przerwania, dynamiczne szeregowanie instrukcji. To sprawia, że sprzęt ma dużą swobodę w optymalizacji – ale jednocześnie sprawia, że ciężko przewidzieć, ile czasu zajmie konkretna operacja.

LPU eliminuje wszystkie te źródła nieprzewidywalności. Kompilator Groqa statycznie planuje wykonanie każdej instrukcji i przepływ danych przez sieć chipów. To oznacza, że deweloper może dokładnie przewidzieć, kiedy dane dotrą i ile czasu zajmie przetwarzanie. To coś więcej niż tylko szybkość – to pewność.

Pamięć SRAM zamiast cache

Większość akceleratorów AI polega na pamięci DRAM lub HBM (High Bandwidth Memory) jako głównym magazynie wag modeli, z systemem cache pośrodku. Problem? Każdy dostęp do DRAM lub HBM wprowadza setki nanosekund opóźnienia.

LPU integruje setki megabajtów pamięci SRAM bezpośrednio na chipie – nie jako cache, ale jako główną pamięć magazynującą wagi. SRAM ma znacznie niższe opóźnienia dostępu. Dla inferecji, gdzie modele wykonują sekwencyjne operacje z niską intensywnością arytmetyczną, ta różnica jest kluczowa.

Paralelizm tensorowy dla pojedynczych użytkowników

GPU wykorzystują głównie paralelizm partii (batch parallelism) – przetwarzają wiele zapytań jednocześnie, aby zamortyzować koszty dostępu do pamięci. To działa świetnie dla wysokiego przepływu, ale nie dla latencji pojedynczych żądań.

LPU wykorzystuje paralelizm tensorowy (tensor parallelism) – dzieli pojedynczą operację na wiele procesorów. Oznacza to, że nawet pojedyncze zapytanie użytkownika może wykorzystać moc wielu chipów, redukując czas odpowiedzi. To dlatego modele z bilionem parametrów, jak Kimi K2, mogą generować tokeny w czasie rzeczywistym na LPU.


Partnerstwo IBM-Groq: Szczegóły techniczne

Integracja z watsonx Orchestrate

W centrum partnerstw znajduje się platforma IBM watsonx Orchestrate – narzędzie do automatyzacji procesów biznesowych przy użyciu wbudowanych lub niestandardowych agentów AI. Teraz watsonx Orchestrate otrzymuje bezpośredni dostęp do GroqCloud – platformy inferecji Groqa.

Co to oznacza w praktyce? Klienci IBM mogą teraz uruchamiać agenty AI, które działają błyskawicznie, bez konieczności budowania własnej infrastruktury LPU. To model "as-a-service" – płacisz za to, czego używasz.

Wsparcie dla Red Hat i vLLM

Częścią porozumienia jest integracja i rozszerzenie otwartego oprogramowania vLLM (virtual Large Language Model) firmy Red Hat z architekturą LPU Groqa. vLLM to popularne narzędzie do optymalizacji inferecji dużych modeli językowych, które obsługuje zaawansowane techniki jak continuous batching czy PagedAttention.

Dzięki tej integracji deweloperzy będą mogli pozostać w swoich preferowanych narzędziach, podczas gdy Groq przyspieszy inferencję w tle. To podejście "bring your own tools" jest kluczowe dla adopcji w przedsiębiorstwach, które już mają swoje workflow.

Modele IBM Granite na GroqCloud

IBM planuje również udostępnić swoje modele Granite na platformie GroqCloud. Granite to rodzina modeli językowych IBM dostrojonych specjalnie do zastosowań korporacyjnych – z uwzględnieniem bezpieczeństwa, zgodności z regulacjami i specyficznych przypadków użycia w branżach takich jak finanse czy ochrona zdrowia.

Uruchomienie Granite na LPU Groqa ma połączyć najlepsze z obu światów: dostrojone do przedsiębiorstw modele z błyskawiczną infrastrukturą inferecji.


Agentic AI: Kolejna rewolucja czy tylko buzzword?

Czym jest agentic AI?

Jeśli zastanawiasz się, co to w ogóle jest "agentic AI", nie jesteś sam. To termin, który dopiero w 2025 roku przedostał się do głównego nurtu dyskusji o sztucznej inteligencji.

W przeciwieństwie do tradycyjnych systemów AI, które odpowiadają na konkretne polecenia (jak ChatGPT generujący tekst na podstawie promptu), agentic AI posiada autonomię. To systemy, które:

  • Samodzielnie planują wieloetapowe zadania
  • Rozumują i podejmują decyzje w oparciu o kontekst
  • Dostosowują swoje plany, gdy warunki się zmieniają
  • Wykorzystują narzędzia i API do wykonywania działań
  • Utrzymują stan i pamięć między interakcjami

Microsoft na konferencji Build 2025 nazwał ten rok "erą agentów AI". OpenAI wypuścił AgentKit i Agent Builder. Gartner przewiduje, że do 2028 roku 33 procent aplikacji korporacyjnych będzie zawierało funkcje agentic AI – w porównaniu z praktycznie zerem w 2023 roku.

Dlaczego teraz?

Agentic AI nie jest nową koncepcją. Badacze dyskutują o autonomicznych agentach od dekad. Ale dopiero teraz zbiegły się trzy czynniki:

  1. Modele są wystarczająco dobre. GPT-4, Claude 3, Llama 3 i inne duże modele językowe mają zdolność do rozumowania w wielu krokach, użycia narzędzi i planowania.
  2. Infrastruktura jest gotowa. Platformy chmurowe, API i narzędzia orkiestracyjne (jak watsonx Orchestrate IBM) umożliwiają budowanie i wdrażanie agentów na skalę.
  3. Biznes tego potrzebuje. Firmy desperacko szukają sposobów na automatyzację złożonych procesów, które do tej pory wymagały człowieka. Agentic AI obiecuje to dostarczyć.

Ale jest haczyk: agenty potrzebują szybkiej inferecji. Jeśli agent musi czekać sekundy na odpowiedź modelu przy każdym kroku, całe doświadczenie się sypie. To właśnie dlatego partnerstwo IBM-Groq jest tak istotne.


Praktyczne zastosowania: Gdzie to już działa?

Ochrona zdrowia: Tysiące pytań jednocześnie

IBM przytacza przykład klienta z branży ubezpieczeń zdrowotnych, który wykorzystuje technologię Groqa do obsługi tysięcy pytań pacjentów i dostawców usług medycznych – jednocześnie i w czasie rzeczywistym.

Wyobraź sobie tradycyjny call center. Każde zapytanie pacjenta przechodzi przez przedstawiciela, który musi przeszukać różne systemy, sprawdzić historię, zweryfikować uprawnienia do świadczeń. To zajmuje minuty, a często wymaga przełączenia lub czekania.

Teraz wyobraź sobie agenta AI działającego na LPU Groqa. Agent analizuje zapytanie w milisekundach, dostępuje do kilku systemów backendowych równolegle, rozumie kontekst medyczny i historię pacjenta, a następnie generuje precyzyjną odpowiedź – zanim człowiek zdążyłby powiedzieć "dzień dobry".

To nie tylko szybciej. To fundamentalnie lepsze doświadczenie dla pacjenta i niższe koszty operacyjne dla ubezpieczyciela.

Retail i HR: Automatyzacja, która faktycznie działa

Klienci IBM w sektorze detalicznym i FMCG (szybko rotujące towary konsumenckie) wykorzystują Groq do agentów HR. Te agenty pomagają automatyzować procesy kadrowe i zwiększać produktywność pracowników.

Praktyczny przykład? Nowy pracownik ma pytanie o urlop. Zamiast szukać w intranecie, pisać do HR i czekać na odpowiedź, zadaje pytanie agentowi. Agent nie tylko zna politykę firmy, ale również może sprawdzić dostępne dni urlopu pracownika, zaproponować optymalne daty (uwzględniając projekty i deadliny) i nawet złożyć wniosek w systemie – wszystko w jednej konwersacji.

Finanse: Zgodność z regulacjami w czasie rzeczywistym

Branże regulowane – jak finanse, farmacja czy sektor publiczny – mają specyficzne wymagania. Nie wystarczy, że AI działa szybko; musi też być bezpieczne, audytowalne i zgodne z przepisami.

IBM podkreśla, że Groq oferuje bezpieczną, zgodną platformę dla wdrożeń AI, która spełnia najbardziej rygorystyczne wymagania regulacyjne i bezpieczeństwa. To kluczowe dla banków czy instytucji finansowych, które nie mogą sobie pozwolić na eksperymenty z bezpieczeństwem danych.

Agent AI w banku może w czasie rzeczywistym analizować transakcje pod kątem potencjalnego prania pieniędzy, sprawdzać zgodność z sankcjami międzynarodowymi i generować raporty dla regulatorów – wszystko z prędkością niedostępną dla systemów opartych na regułach czy tradycyjnych GPU.


Reakcja rynku: Co mówią liczby?

Wzrost akcji IBM

Ogłoszenie partnerstwa wywołało natychmiastową reakcję na giełdzie. Akcje IBM wzrosły o 0,6 procent, osiągając poziom około 283 dolarów. Może to nie brzmi jak spektakularny wzrost, ale w kontekście kapitalizacji rynkowej IBM wynoszącej 262 miliardy dolarów, to przełożenie wartości liczone w miliardach.

Co więcej, akcje IBM wzrosły już o ponad 30 procent od początku 2025 roku, co odzwierciedla rosnącą pewność inwestorów co do transformacji firmy w kierunku AI i chmury.

Kontekst finansowy IBM

IBM to nie startup – to korporacyjny gigant z 64 miliardami dolarów rocznych przychodów i 14,2 miliarda dolarów EBITDA. Ta silna pozycja finansowa pozwala firmie inwestować w transformacyjne technologie, takie jak partnerstwo z Groq.

Analitycy z RBC Capital utrzymują rekomendację "outperform" z ceną docelową 315 dolarów przed publikacją wyników za trzeci kwartał 2025. To sugeruje potencjał wzrostu o około 11 procent w stosunku do obecnych poziomów.

Groq: Od 1 do 6,9 miliarda w rok

Wycena Groqa to osobna historia sukcesu. We wrześniu 2024 firma była warta 2,8 miliarda dolarów. Rok później – 6,9 miliarda. To wzrost o 146 procent.

Groq zabezpieczyła również 1,5 miliarda dolarów finansowania od Królestwa Arabii Saudyjskiej na rozbudowę infrastruktury AI oraz kontrakt z Bell Canada na ekspansję krajowej infrastruktury AI. Do 2025 roku firma założyła już tuzin centrów danych w USA, Kanadzie, na Bliskim Wschodzie i w Europie.


Co to oznacza dla konkurencji?

Nvidia: Spokojny gigant czy zagrożony lider?

Nvidia kontroluje ponad 80 procent rynku wysokiej klasy chipów AI. Akcje firmy są jednymi z najlepiej radzących sobie w ostatnich latach, napędzanych przez boom na AI.

Czy LPU Groqa stanowi zagrożenie? Nie bezpośrednio – przynajmniej nie w najbliższym czasie. Nvidia dominuje w treningu modeli AI, który wymaga innego rodzaju mocy obliczeniowej niż inferecja. Groq celuje specyficznie w inferecję produkcyjną.

Ale jeśli LPU faktycznie dostarcza pięciokrotnie lepszą wydajność przy inferecji, to może spowodować przesunięcie budżetów. W końcu większość wydatków na AI w przedsiębiorstwach to inferecja (wykorzystanie modeli), nie trening.

Microsoft, Google, Amazon: Hybrydowe strategie

Giganci chmurowi już oferują własne akceleratory: Microsoft z Azure Maia, Google z TPU, Amazon z Trainium i Inferentia. Ale żaden z nich nie oferuje infrastruktury tak skoncentrowanej na inferecji językowej jak LPU Groqa.

Co ciekawe, Microsoft aktywnie promuje agentic AI poprzez platformę Copilot Studio i Azure AI. Integracja IBM-Groq może być postrzegana jako sygnał, że ekosystem "najlepszych w swojej klasie" (best-of-breed) wygrywa nad monokulturą jednego dostawcy.

Startupy i platformy deweloperskie

Dla startupów i mniejszych graczy partnerstwo IBM-Groq otwiera drzwi do infrastruktury klasy enterprise bez konieczności wielomiesięcznych negocjacji czy milionowych inwestycji. GroqCloud działa w modelu pay-as-you-go, co demokratyzuje dostęp do najszybszej inferecji AI na rynku.

OpenAI już oferuje dostęp do swoich modeli przez API. Anthropic (twórca Claude) podobnie. Ale infrastruktura inferecji była zawsze wąskim gardłem. Groq może zmienić tę równowagę, oferując alternatywę opartą na LPU zamiast GPU.


Wyzwania i ryzyka: Nie wszystko złoto co się świeci

Skalowanie i dostępność

Groq ma obecnie tuzin centrów danych. Nvidia ma tysiące klientów na całym świecie i dominację w łańcuchu dostaw półprzewodników. Skalowanie produkcji chipów LPU, budowa infrastruktury globalnej i zapewnienie dostępności na poziomie enterprise to gigantyczne wyzwanie operacyjne i finansowe.

IBM pomaga w tym zakresie, oferując swoje globalne kanały sprzedaży i wsparcie dla klientów. Ale pytanie pozostaje: czy Groq będzie w stanie dostarczać infrastrukturę na skalę, jakiej wymagają wielkie przedsiębiorstwa?

Bezpieczeństwo i zgodność z regulacjami

Partnerstwo podkreśla bezpieczeństwo i zgodność, ale to słowa. Kluczowe będzie, czy Groq faktycznie uzyska certyfikacje bezpieczeństwa (ISO 27001, SOC 2), zgodność z RODO w Europie, HIPAA w USA dla ochrony zdrowia i inne wymagane atesty.

IBM ma doświadczenie w nawigowaniu przez ten labirynt regulacyjny. Ale Groq jako stosunkowo młoda firma będzie musiała udowodnić, że potrafi spełnić te same standardy.

Konkurencja ze strony wewnętrznych rozwiązań

Wiele dużych przedsiębiorstw już zainwestowało w infrastrukturę GPU od Nvidii lub własne rozwiązania chmurowe. Przejście na LPU Groqa może wymagać przeprojektowania aplikacji, migracji obciążeń i szkolenia zespołów.

To nie jest przełącznik, który można po prostu przekręcić. Będzie wymagało czasu, wysiłku i przekonania, że korzyści przeważają nad kosztami.

Ryzyko vendor lock-in

Architekt LPU jest własnością Groqa. Jeśli firma postanowi drastycznie podnieść ceny lub zmieni warunki usługi, klienci mogą się znaleźć w pułapce. To odwieczny problem zamkniętych ekosystemów technologicznych.

IBM częściowo mitiguje to ryzyko poprzez integrację z otwartymi standardami (jak vLLM) i własną platformę watsonx, która może działać na różnych backendach. Ale to wciąż coś, na co firmy muszą uważać.


Perspektywy na przyszłość: Co dalej?

2026: Rok masowej adopcji agentów?

Gartner przewiduje, że do 2028 roku jedna trzecia aplikacji korporacyjnych będzie zawierała funkcje agentic AI. Jeśli prognozy się sprawdzą, lata 2025-2027 będą okresem intensywnego eksperymentowania i wdrażania.

Partnerstwo IBM-Groq może być katalizatorem tej transformacji. IBM ma relacje z tysiącami największych firm na świecie. Jeśli te firmy zaczną masowo wdrażać agentów AI na infrastrukturze Groqa, może to stworzyć efekt kuli śnieżnej.

Ewolucja architektury LPU

Groq nie stoi w miejscu. Firma już wybrała fabrykę Samsung w Teksasie do produkcji chipów następnej generacji na 4-nanometrowym procesie technologicznym. To sugeruje, że LPU 2.0 będzie jeszcze szybszy i bardziej efektywny energetycznie.

W miarę jak modele językowe rosną (GPT-5, Claude 4, Gemini Ultra), popyt na wydajną inferecję będzie tylko rosnąć. Groq jest dobrze pozycjonowany, by na tym skorzystać.

Otwarte pytania o AGI

Wiele dyskusji o agentic AI prowadzi do szerszych pytań o sztuczną inteligencję ogólną (AGI) – systemy AI, które mogą wykonywać każde zadanie intelektualne, które potrafi człowiek.

Agentic AI to nie AGI. To wciąż systemy wąskie, zaprojektowane do konkretnych zadań. Ale linia między nimi zaczyna się rozmywać. Jeśli agent może planować, rozumować, używać narzędzi i uczyć się z doświadczenia – jak daleko jesteśmy od AGI?

To filozoficzne pytanie, ale ma praktyczne implikacje. W miarę jak agenty stają się bardziej autonomiczne, pytania o odpowiedzialność, etykę i kontrolę stają się coraz pilniejsze.

Read more

MIT, Stanford i OpenAI ogłosiły przełom – naukowcy z Indii powiedzieli "sprawdzam"

MIT, Stanford i OpenAI ogłosiły przełom – naukowcy z Indii powiedzieli "sprawdzam"

Sztuczna inteligencja miała zrewolucjonizować naukę, generując przełomowe prace badawcze. Prestiżowe uniwersytety ogłosiły sukces, a eksperci zachwycali się nowatorstwem AI. Był tylko jeden problem: co czwarty "innowacyjny" artykuł okazał się wyrafinowanym plagiatem. Odkrycie naukowców z Indii podważa fundamenty rewolucji AI w nauce. Niedawno opublikowane badania miały być dowodem na

By Jacek
Nowy wektor ataków na przeglądarki z natywnym AI

Nowy wektor ataków na przeglądarki z natywnym AI

Wczoraj pisaliśmy, że Open AI wypuściło Atlas – nową przeglądarkę internetową, z wbudowanym agentem ChatGTP. Przeglądarki sterowane sztuczną inteligencją obiecują rewolucję w internecie, ale eksperci bezpieczeństwa odkryli fundamentalną lukę: atakujący mogą przejąć kontrolę nad AI, używając niewidocznych dla użytkownika instrukcji ukrytych w obrazach i treści stron WWW. Kiedy inteligencja staje się

By Jacek