DeepSeek – Bullish czy Bearish dla AI na giełdzie?

18 godzin temu

Gdy chiński startup DeepSeek ogłosił premierę swojego modelu DeepSeek-R1, rynek zareagował gwałtownie. Akcje Nvidii – lidera w produkcji układów GPU wykorzystywanych w sztucznej inteligencji – bardzo mocno spadły, wymazując tym samym setki miliardów dolarów wartości rynkowej. Inwestorzy obawiali się, iż ta nowa, tańsza i otwarto-źródłowa alternatywa dla modelu ChatGPT może osłabić popyt na kosztowne centra danych i wyspecjalizowane układy Nvidii.

Czy inwestorzy zbyt pochopnie ocenili skutki premiery DeepSeek-R1? Czy otwarto-źródłowa sztuczna inteligencja może przyczynić się do wzrostu wartości Nvidii i innych spółek technologicznych? W tym artykule przeanalizujemy, dlaczego ta pozorna groźba może w rzeczywistości okazać się jednym z największych katalizatorów wzrostu dla całej branży AI.

Spadek i szybkie odbicie ceny akcji Nvidia. Źródło: tradingview.com

AI przed wyjściem ChatGPT

Koncepcja sztucznej inteligencji (ang. Artificial Intelligence, AI) ma znacznie dłuższą historię, niż mogłoby się wydawać. Choć rozwój nowoczesnych systemów AI nastąpił dopiero w XX i XXI wieku, pomysł stworzenia maszyn zdolnych do myślenia pojawiał się w różnych formach na przestrzeni wieków.

W XX wieku koncepcja sztucznej inteligencji zaczęła jednak nabierać bardziej konkretnego kształtu, a badacze i matematycy położyli podwaliny pod współczesne systemy. W 1920 roku czeski pisarz Karel Čapek wprowadził do literatury pojęcie „robot” w swojej sztuce „R.U.R.”, opisując mechaniczne istoty stworzone do pracy dla ludzi. Kilkanaście lat później, w 1936 roku, Alan Turing opracował teoretyczny model obliczeń algorytmicznych, znany jako maszyna Turinga, który stał się fundamentem nowoczesnej informatyki. W 1950 roku zaproponował również słynny Test Turinga, który miał określić, czy maszyna potrafi prowadzić rozmowę na poziomie nieodróżnialnym od człowieka.

Jednym z przełomowych momentów dla AI była konferencja w Dartmouth w 1956 roku, na której John McCarthy po raz pierwszy użył terminu „sztuczna inteligencja”. To wydarzenie oficjalnie “zapoczątkowało” AI i intensywne badania nad tworzeniem maszyn potrafiących “myśleć” i uczyć się. W latach 50. i 60. rozwój AI koncentrował się na tworzeniu programów rozwiązujących problemy matematyczne i językowe, a także na projektowaniu pierwszych języków programowania AI, takich jak LISP. Pomimo optymizmu i sukcesów pierwszych lat, niedługo później sztuczna inteligencja napotkała poważne ograniczenia technologiczne. Brak odpowiedniej mocy obliczeniowej i skutecznych algorytmów sprawił, iż wiele obiecujących projektów utknęło w martwym punkcie, co doprowadziło do pierwszej „zimy AI”, czyli okresu zmniejszonego zainteresowania i finansowania badań nad tą technologią.

Swoiste odrodzenie nastąpiło w latach 80., kiedy zaczęto rozwijać systemy eksperckie, które mogły podejmować decyzje na podstawie wcześniej zdefiniowanych reguł i baz wiedzy. W tym samym czasie badacze ponownie zaczęli eksperymentować z sieciami neuronowymi, co otworzyło nowe możliwości w uczeniu maszynowym. W latach 90. AI zaczęła odnosić pierwsze spektakularne sukcesy – w 1997 roku komputer Deep Blue stworzony przez IBM pokonał w szachy ówczesnego mistrza świata, Garry’ego Kasparowa, co stało się symbolicznym dowodem na to, iż maszyny mogą przewyższyć ludzi w określonych zadaniach wymagających inteligencji.

Prawdziwa rewolucja w AI zaczęła się jednak w XXI wieku wraz z rosnącą mocą obliczeniową komputerów i dostępem do ogromnych zbiorów danych. Przełom nastąpił w 2012 roku, kiedy model AlexNet oparty na głębokich sieciach neuronowych (deep learning) wygrał konkurs ImageNet, pokazując, iż sieci neuronowe mogą osiągać niezwykłą skuteczność w rozpoznawaniu obrazów. To wydarzenie zapoczątkowało erę głębokiego uczenia, którego efekty znalazły zastosowanie w wielu dziedzinach – od medycyny po finanse.

W kolejnych latach AI zaczęło osiągać coraz bardziej spektakularne sukcesy. W 2014 roku Ian Goodfellow zaproponował modele GAN, które zapoczątkowały nową erę w generowaniu obrazów i danych syntetycznych. Dwa lata później OpenAI powstało jako organizacja non-profit, koncentrując się na badaniach nad bezpiecznym AI. Również w 2016 roku AlphaGo, sztuczna inteligencja stworzona przez DeepMind (Google), pokonała Lee Sedola, jednego z najwybitniejszych graczy “Go” na świecie. Było to wielkie osiągnięcie w dziedzinie AI, ponieważ AlphaGo nie korzystała z bazy danych ludzkich partii, ale nauczyła się grać samodzielnie, analizując miliony własnych rozgrywek. Wykorzystując sieci neuronowe oraz metody uczenia przez wzmocnienie, program stopniowo doskonalił swoją strategię. Co więcej, stworzył własne, unikalne style gry, których choćby najlepsi ludzcy gracze wcześniej nie stosowali. Kolejny przełom nastąpił w 2017 roku, kiedy zespół badawczy Google opublikował artykuł „Attention Is All You Need”, wprowadzając architekturę Transformer, która stała się fundamentem nowoczesnych modeli językowych, takich jak BERT (2018) i późniejsze GPT (ang. Generative Pre-trained Transformer). W międzyczasie AI zaczęło być stosowane na masową skalę w rozpoznawaniu mowy, analizie danych i predykcji zachowań użytkowników w sieci.

Tak dynamiczny rozwój AI doprowadził do momentu, w którym w 2022 roku pojawił się ChatGPT, pierwszy szeroko dostępny model zdolny do prowadzenia płynnych i kontekstowych rozmów na niemal dowolny temat. Był to kulminacyjny punkt dekad badań nad sztuczną inteligencją, której początki sięgały jeszcze prac Alana Turinga, a choćby filozoficznych spekulacji poprzednich epok.

AI na fali wzrostowej

W listopadzie roku 2022 wspomniane już OpenAI wypuściło dziś już powszechnie znany ChatGPT-3.5., czyli model GPT w formie przyjaznej dla przeciętnego użytkownika.

Chociaż wcześniejsze modele GPT-2 (2019) i GPT-3 (2020) już istniały, to były one dostępne głównie dla badaczy, programistów i firm poprzez API OpenAI. Z kolei ChatGPT z 30 listopada 2022 był pierwszym szeroko dostępnym interfejsem, który każdy mógł po prostu otworzyć w przeglądarce i zacząć z nim rozmawiać bez konieczności znajomości programowania.

To właśnie ta dostępność i łatwość użytkowania sprawiły, iż ChatGPT zyskał milion użytkowników w 5 dni, co było rekordowym wynikiem w świecie technologii. Dzięki temu listopad 2022 można uznać za moment, w którym AI weszła do mainstreamu, a generatywna sztuczna inteligencja zaczęła być wykorzystywana na ogromną skalę przez zwykłych ludzi, a nie tylko specjalistów.

Od premiery ChatGPT w listopadzie 2022 roku rynek generatywnej sztucznej inteligencji eksplodował, zmieniając wiele branż i prowadząc do intensywnego wyścigu technologicznego. ChatGPT zapoczątkował erę powszechnej dostępności wielkich modeli językowych (LLMs), co doprowadziło do błyskawicznego rozwoju coraz bardziej zaawansowanych systemów. W marcu 2023 roku OpenAI zaprezentowało GPT-4, który był znacznie bardziej precyzyjny, kontekstowy i zdolny do przetwarzania zarówno tekstu, jak i obrazów. Google nie pozostało w tyle, wypuszczając Gemini (wcześniej Bard), podczas gdy Meta opracowała modele LLaMA, stawiając na ich otwartość dla badaczy i firm. Pojawiły się także nowe podmioty, takie jak Anthropic z modelem Claude, czy europejski startup Mistral AI, który zaoferował lekkie i efektywne modele open-source.

Równolegle do rozwoju modeli językowych nastąpił przełom w generowaniu obrazów, wideo i dźwięku. OpenAI rozwijało swoje modele DALL·E, umożliwiając coraz precyzyjniejsze generowanie grafik, a Midjourney i Stable Diffusion stały się popularnymi narzędziami do tworzenia fotorealistycznych obrazów. Wideo generowane przez AI zaczęło nabierać rozpędu dzięki firmom takim jak Runway AI, podczas gdy narzędzia pokroju Suno i Udio pozwalały generować utwory na bazie tekstowych promptów.

AI zaczęła również odgrywać kluczową rolę w biznesie i automatyzacji. Microsoft nawiązał współpracę z OpenAI, co doprowadziło do integracji AI w pakiecie Office 365 pod nazwą Copilot, a Google dodało AI do Dokumentów, Arkuszy i Gmaila. Coraz większą rolę zaczęły odgrywać również narzędzia dla programistów, takie jak GitHub Copilot, Codeium czy Tabnine, które wspierają pisanie kodu i automatyczne wykrywanie błędów.

Sztuczna inteligencja zaczęła także rewolucjonizować naukę i badania. W medycynie AI wspomaga diagnostykę i odkrywanie nowych leków, a DeepMind i Isomorphic Labs pracują nad algorytmami, które mogą znacząco przyspieszyć rozwój farmakologii. AI zaczęto wykorzystywać również w fizyce i biologii, gdzie pomaga analizować dane z teleskopów, prowadzić symulacje chemiczne i przewidywać zachowania złożonych układów biologicznych.

Patrząc w przyszłość, rynek AI rozwija się w kierunku coraz bardziej zaawansowanych modeli. Firmy takie jak OpenAI, DeepMind i Anthropic pracują nad stworzeniem AGI (Sztucznej Inteligencji Ogólnej), która miałaby zdolności zbliżone do ludzkiego myślenia. Połączenie AI z robotyką, czego przykładem są humanoidalne roboty od Tesli czy Figure AI, może doprowadzić do przełomu w automatyzacji fizycznych zadań. AI zaczyna także ewoluować w kierunku osobistych asystentów zdolnych do głębokiego rozumienia intencji użytkownika i personalizacji interakcji.

Od listopada 2022 roku rynek generatywnej AI przeszedł niesamowitą transformację. W ciągu niecałych dwóch lat modele językowe, generowanie obrazów, muzyki i wideo, a także automatyzacja w biznesie i nauce stały się niesamowicie uniwersalne. AI nie tylko ma szansę stać się zupełnie powszechna, ale coraz więcej wskazuje na to, iż może również fundamentalnie zmienić sposób, w jaki ludzie pracują, uczą się i tworzą.

Wzrost akcji $NVDA

Rozwój sztucznej inteligencji jest bezpośrednio uzależniony od ogromnych zasobów mocy obliczeniowej, którą można wyrazić w liczbie i wydajności chipów takich jak GPU, TPU czy ASIC. To właśnie te układy scalone umożliwiają trenowanie i działanie zaawansowanych modeli AI, przetwarzając ogromne ilości danych w jak najkrótszym czasie.

Najczęściej wykorzystywanymi chipami w AI są karty graficzne (ang. Graphics Processing Unit, GPU), zwłaszcza te produkowane przez Nvidia, takie jak H100 i A100. Karty graficzne są idealne do równoległego przetwarzania danych, co jest najważniejsze dla głębokiego uczenia. To właśnie one stanowią podstawę działania takich systemów jak GPT-4 czy Google Gemini. Oprócz GPU, istotną rolę odgrywają także TPU (Tensor Processing Units), które zostały zaprojektowane przez Google. Inną kategorią są ASIC (Application-Specific Integrated Circuit), czyli układy scalone stworzone specjalnie do AI, takie jak Cerebras Wafer Scale Engine, który jest jednym z największych chipów dedykowanych sztucznej inteligencji. Chociaż procesory (ang. Central Processing Unit, CPU) przez cały czas pełnią pewne funkcje w systemach AI, ich moc w przetwarzaniu równoległym jest niewystarczająca do efektywnego trenowania modeli, przez co ich rola jest bardziej pomocnicza.

Jedną z największych kwestii związanych z chipami AI jest monopol Nvidia. Firma ta zdominowała rynek GPU, a jej H100 i A100 są najważniejsze dla OpenAI, Google, Anthropic i wielu innych firm zajmujących się AI. Nvidia dominuje rynek sztucznej inteligencji, ponieważ jako pierwsza dostrzegła potencjał GPU w obliczeniach AI i konsekwentnie rozwijała technologię oraz ekosystem wspierający deep learning. Podczas gdy AMD i Intel skupiały się głównie na rynku gier i procesorach ogólnego zastosowania, Nvidia już w latach 2000 inwestowała w GPGPU (ang. General Purpose GPU), czyli zastosowanie kart graficznych do szerokiej gamy obliczeń, nie tylko renderowania grafiki. Kluczowym momentem było wprowadzenie w 2006 roku CUDA (ang. Compute Unified Device Architecture) – platformy programistycznej, która stała się standardem dla AI. Deweloperzy i badacze zaczęli dostosowywać swoje modele do CUDA, co sprawiło, iż Nvidia zbudowała przewagę nie tylko w sprzęcie, ale także w oprogramowaniu. Wiodące biblioteki AI, takie jak TensorFlow, PyTorch i JAX, zostały zoptymalizowane pod CUDA, co oznaczało, iż modele na nich oparte działają znacznie szybciej na kartach Nvidii niż na jakiejkolwiek innej platformie.

Największe centra danych na świecie zostały oparte na kartach graficznych od Nvidia, a migracja do innego dostawcy wymagałaby gigantycznych nakładów finansowych i technologicznych. Firmy pracujące nad AI dostosowały swoje modele do ekosystemu Nvidii, co sprawiło, iż zmiana platformy stała się nie tylko kosztowna, ale i mało efektywna. W rezultacie Nvidia stała się monopolistą w segmencie AI GPU, kontrolując ponad 90% rynku.

Udział w rynku dla chipów AI poszczególnych firm w 2023 roku. Źródło: iot-analytics.com

Przez lata konkurencja nie była w stanie dorównać Nvidii. AMD, mimo produkcji wydajnych kart graficznych, długo nie inwestowało w AI na taką skalę i nie stworzyło alternatywy dla CUDA. Dopiero w ostatnich latach firma wprowadziła chip MI300, który może konkurować z Nvidią w niektórych zastosowaniach, ale przez cały czas nie ma tak silnego oprogramowania. Intel, próbując wejść na rynek AI, stworzył serię procesorów Gaudi, ale nie zdobył dużej popularności, ponieważ firmy AI już od lat bazowały na infrastrukturze Nvidii. Google TPU, mimo wysokiej wydajności, są dostępne głównie w chmurze Google i nie stały się szeroką alternatywą dla Nvidia GPU w centrach danych.

Efekt skali sprawił, iż dominacja Nvidii stała się samonapędzająca – firmy kupują sprzęt Nvidii, ponieważ ich oprogramowanie działa najlepiej, a deweloperzy projektują modele AI pod CUDA, ponieważ to właśnie ten ekosystem jest standardem rynkowym. To błędne koło utrudnia konkurencji zdobycie istotnego udziału w rynku, ponieważ oferowanie lepszego sprzętu nie wystarczy – konieczne jest stworzenie całego ekosystemu narzędzi i optymalizacji, które przez lata rozwijała Nvidia.

Wszystko o czym do tej pory powiedzieliśmy, wraz z ogromnym wzrostem popularności AI po wypuszczeniu ChataGPT, sprawiło, iż akcje $NVDA od listopada 2022 roku do listopada roku 2024 zwiększyły swoją wartość 10-krotnie.

Wykres cenowy akcji Nvidia na przestrzeni czasu. Źródło: tradingview.com

DeepSeek R1 i spadek ceny akcji Nvidia

DeepSeek-R1 to zaawansowany model sztucznej inteligencji opracowany przez chińską firmę o tej samej nazwie, który został oficjalnie wydany 20 stycznia 2025 roku. Jest to model językowy typu LLM (ang. Large Language Model), jeden z największych dostępnych modeli open-source (co w praktyce oznacza, iż został on udostępniony do publicznego użytku). Funkcjonuje on również na licencji MIT, co oznacza, iż może być swobodnie wykorzystywany zarówno w badaniach naukowych, jak i w zastosowaniach komercyjnych.

Wprowadzenie na rynek DeepSeek-R1 wywołało znaczące zmiany w globalnym krajobrazie technologicznym. DeepSeek-R1 osiąga wydajność porównywalną z czołowymi modelami AI, takimi jak GPT-4 czy Claude, szczególnie w zadaniach wymagających zaawansowanego rozumowania, kodowania i matematyki. Jego architektura została jednak zaprojektowana w taki sposób, aby uzyskać wysoką efektywność przy relatywnie niższych wymaganiach sprzętowych w porównaniu do konkurencyjnych rozwiązań. W praktyce oznacza to, iż model osiągający podobne wyniki do najlepszych modeli dostępnych na rynku został opracowany przy wykorzystaniu znacznie mniejszych zasobów. Fakt ten znalazł bardzo silne odbicie na rynku, bowiem jednym z największych skutków tej premiery była gwałtowna wyprzedaż akcji $NVDA.

Spadek ceny akcji Nvidii po wypuszczeniu modelu firmy DeepSeek. Źródło: tradingview.com

27 stycznia 2025 roku akcje $NVDA spadły o 17%, co przełożyło się na utratę około 600 miliardów dolarów wartości rynkowej tej spółki. Inwestorzy obawiali się, iż tak potężny i jednocześnie ekonomiczny model AI może ograniczyć popyt na drogie układy GPU od Nvidii, zwłaszcza jeżeli firmy zdecydują się wdrażać bardziej opłacalne rozwiązania bazujące na DeepSeek-R1. To wydarzenie podkreśliło również rosnącą konkurencję ze strony chińskich firm technologicznych, które coraz śmielej rywalizują z amerykańskimi gigantami.

Perspektywa ograniczenia przewagi technologicznej Stanów Zjednoczonych i zmniejszenia dominacji Nvidii na rynku AI wpłynęła na wzrost niepewności wśród inwestorów. Czy jednak słusznie?

Dlaczego DeepSeek jest bullish dla AI i $NVDA

Chociaż premiera DeepSeek-R1 początkowo wywołała panikę na rynku i spowodowała spadek wartości akcji Nvidii, w dłuższej perspektywie może okazać się dla tej firmy korzystnym katalizatorem wzrostu. Głównym tego powodem jest to, iż mimo niższych kosztów operacyjnych DeepSeek-R1 przez cały czas wymaga ogromnej mocy obliczeniowej, a jego otwarto-źródłowy charakter może sprawić, iż wiele firm zdecyduje się na trenowanie i wdrażanie własnych wersji modelu, zamiast korzystać z zamkniętych rozwiązań OpenAI czy Google. To oznacza, iż zamiast ograniczenia popytu na GPU, więcej firm może zacząć inwestować we własną infrastrukturę obliczeniową, co bezpośrednio przełoży się na wzrost sprzedaży układów NVIDIA H100, A100 i ich następców.

Kolejnym kluczowym czynnikiem jest decentralizacja AI, która sprawia, iż nie tylko wielkie korporacje, ale także średnie i mniejsze firmy mogą teraz korzystać z zaawansowanych modeli, wdrażając je na własnych serwerach. Rynek generative AI jest zdominowany przez kilku gigantów, którzy trenują swoje modele na potężnych klastrach obliczeniowych. Teraz, dzięki DeepSeek-R1, dostęp do potężnej AI stał się bardziej demokratyczny, co oznacza, iż setki, a choćby tysiące firm mogą potrzebować mocy obliczeniowej do lokalnego wdrażania AI, napędzając popyt na GPU od Nvidii.

Dodatkowo, otwarto-źródłowy charakter DeepSeek-R1 może przyspieszyć rozwój całej branży sztucznej inteligencji. Wraz z rozwojem open-source AI coraz więcej organizacji i startupów będzie eksperymentować z modelem DeepSeek-R1, optymalizować go i dostosowywać do swoich potrzeb (a być może także rozwijać i wyniki badań udostępniać publicznie), co w konsekwencji zwiększy zapotrzebowanie na sprzęt do trenowania i uruchamiania AI.

Nvidia również może strategicznie skorzystać na premierze DeepSeek-R1, dostosowując swoje GPU i biblioteki do tego modelu, co sprawi, iż będzie on działał szybciej i efektywniej na układach tej firmy w porównaniu do konkurencyjnych platform. Już teraz DeepSeek-R1 został zintegrowany z NVIDIA NIM, co oznacza, iż model ten jest zoptymalizowany pod sprzęt Nvidii. Dzięki temu firmy decydujące się na wdrażanie DeepSeek-R1 automatycznie wybiorą ekosystem Nvidii, zamiast rozważać alternatywy od AMD czy innych dostawców.

Istotnym aspektem jest również potencjalny wzrost zapotrzebowania na sprzęt AI w Chinach, gdzie DeepSeek-R1 może stać się lokalną alternatywą dla zachodnich modeli AI. Pomimo amerykańskich ograniczeń eksportowych na najnowsze chipy, wiele chińskich firm przez cały czas może kupować starsze układy NVIDIA, takie jak A800, które są specjalnie dostosowane do tego rynku. To może oznaczać, iż chińskie firmy, zamiast polegać na usługach OpenAI czy Google, będą wdrażać własne modele AI oparte na DeepSeek-R1, co zwiększy popyt na infrastrukturę obliczeniową.

Podsumowanie

Choć w krótkim terminie premiera DeepSeek-R1 wydawała się zagrożeniem dla Nvidii, w rzeczywistości może znacznie zwiększyć zapotrzebowanie na moc obliczeniową, co byłoby korzystne dla tej firmy. Więcej firm zacznie wdrażać własne modele, decentralizacja AI przyspieszy rozwój branży, a Nvidia będzie mogła optymalizować sprzęt pod nowe modele AI, utrzymując swoją dominację w segmencie GPU. W dłuższej perspektywie DeepSeek-R1 może więc paradoksalnie umocnić pozycję Nvidii jako kluczowego dostawcy sprzętu dla sztucznej inteligencji.

Idź do oryginalnego materiału