Dalej kupuję AMD! Czy to najlepsza inwestycja na najbliższe lata?

2 godzin temu

„AMD? HEHEHE Advanced Money Destroyer” – mówili.

„Dlaczego nie Nvidia?” – pytali.

„NO I WTOPA” – pisali.

Tylko iż dziś… cisza. Kurs AMD odbił, a Ci sami jakoś zamilkli. Ciekawe, prawda? A ja? Nie tylko nie sprzedałem. Dokupiłem. I zarobiłem. I zarobię więcej. Ale to nie jest materiał o tym, iż „miałem rację”. To jest materiał o tym, dlaczego przez cały czas kupuję AMD, mimo iż Nvidia wciąż króluje.

Bo jeżeli ktoś ma dziś realną szansę rozbić monopol w AI i przy okazji dać solidnie zarobić inwestorom… to właśnie ta spółka. Pokażę Wam, co się zmieniło w AMD, co dopiero przed nami i czemu prawdziwe pieniądze mogą się dopiero zacząć.

Dalej kupuję AMD! Czy to najlepsza inwestycja na najbliższe lata?

Załóż konto na Freedom24 i odbierz od 3 do 20 darmowych akcji o wartości choćby 800 USD każda!

Szczegółowy opis promocji znajdziesz na: https://freedom24.club/dnarynkow_welcome

Nowy rajd AMD – coś więcej niż korekta

Ostatni rajd na akcjach AMD, to nie jest jakieś chwilowe, techniczne odreagowanie. Za nim stoi dużo więcej. Coś, co moim zdaniem ma znacznie większy, długoterminowy potencjał wzrostu niż u jego głównego konkurenta.

Część z was pewnie kojarzy mnie od jakiegoś czasu z AMD. Mówiłem o tej spółce i inwestowałem w nią jeszcze wtedy, gdy większość analityków i komentatorów uważała ją za słabą, niegodną uwagi alternatywę dla potężnej Nvidii.

Dziś wracam do tego tematu – nie po to, żeby się chwalić (ok trochę też po to), ale przede wszystkim po to, żeby pokazać Wam, co widzę w tej spółce i czemu uważam, iż te najciekawsze i największe zyski… są dopiero przede mną.

AI napędza rewolucję inwestycyjną

Zacznijmy od absolutnych podstaw: wydatki na infrastrukturę dla sztucznej inteligencji nie tylko nie zwalniają, ale wręcz przyspieszają, a AMD jest do tego scenariusza spozycjonowana bardzo, ale to bardzo dobrze. Od historycznej premiery ChataGPT w 2022 roku, cały, globalny rynek AI przyspieszył ze spokojnego marszu do szaleńczego sprintu.

Popyt na moc obliczeniową eksplodował. Ogromne środki płyną w tej chwili na setki tysięcy nowych, superwydajnych serwerów, na zaawansowane systemy chłodzenia, na superszybkie sieci… i – co dla inwestorów AMD najważniejsze – na układy GPU. To nie jest moja opinia. To fakt, który potwierdzają tacy ludzie jak zarząd TSMC, Sam Altman czy Zuckerberg.

Wydatki inwestycyjne na sztuczną inteligencję osiągają niespotykany poziom i mają już realny, mierzalny wpływ na całą, amerykańską gospodarkę. Skala tych nakładów jest tak duża, iż nie tylko w istotny sposób zasila PKB, ale wręcz zaczyna przypominać historyczne, przełomowe momenty największych boomów inwestycyjnych w historii – takie jak na przykład XIX-wieczna, masowa ekspansja kolei czy gorączka inwestycji w sektorze telekomunikacji w czasach bańki internetowej.

Według najnowszego raportu firmy PwC, wdrożenie sztucznej inteligencji na szeroką, globalną skalę może zwiększyć światowy produkt krajowy brutto o nawet 15 punktów procentowych do roku 2035! Oznacza to średni, dodatkowy wzrost o 1 punkt procentowy rocznie, co jest w pełni porównywalne z wpływem, jaki na gospodarkę miała rewolucja przemysłowa z końcówki XIX wieku! Wtedy to, przypomnę, spółki kolejowe stanowiły blisko dwie trzecie całego, amerykańskiego rynku akcji. Dla porównania, dzisiaj cały, szeroko pojęty sektor technologiczny wciąż stanowi mniej niż połowę tego rynku.

W odróżnieniu od kolei czy autostrad, nowoczesne centra danych dla AI nie są jednak wielopokoleniową inwestycją. To jest infrastruktura o relatywnie krótkim cyklu życia, która wymaga ciągłej, niezwykle kosztownej modernizacji, bo technologia w tej branży starzeje się w zawrotnym tempie.

Wydatki na chmurę i na infrastrukturę obliczeniową rosną więc w tempie, którego jeszcze do niedawna nikt się nie spodziewał. Jeszcze kilka miesięcy temu, analitycy zakładali, iż globalne wydatki na chmurę i infrastrukturę AI (tzw. cloud AI capex) w 2025 roku wyniosą około 310 miliardów dolarów. Tymczasem, najnowsze, zrewidowane w górę szacunki, mówią już o kwocie 365 miliardów dolarów. To o 20% więcej niż jeszcze kilka miesięcy temu i aż o 70% więcej w ujęciu rok do roku! A to, moi drodzy, jest dopiero początek.

Chmura, hyperscalerzy i wyścig zbrojeń

Główni winowajcy tego całego zamieszania? Oczywiście Amazon (ze swoją chmurą AWS), Microsoft (z Azure), Google (z GCP), Meta, Oracle i… coraz częściej także Tesla. Wszyscy oni zaciekle walczą o dominację w tej nowej, wspaniałej erze generatywnej sztucznej inteligencji, a głównym polem tej bitwy są tu gigantyczne centra danych.

Z najnowszego raportu analityków z Goldman Sachs wynika, iż tylko w latach 2022–2024, amerykańscy giganci technologiczni („hyperscalerzy”) wydali na ten cel łącznie 477 miliardów dolarów, a w latach 2025–2027 ta kwota może sięgnąć, uwaga, aż 1,15 biliona dolarów! Sam Amazon planuje w tym okresie wydać 427 miliardów, Microsoft – 391 miliardów, a Google – 330 miliardów. To jest największe, prywatne przedsięwzięcie infrastrukturalne od czasów II wojny światowej. A może i największe w całej, znanej nam historii.

Warto mieć dostęp do takich rynków, które są w centrum tej transformacji. Ja sam do inwestowania w spółki z sektora AI, półprzewodników i technologii używam m.in. platformy Freedom24.

To broker notowany na Nasdaq, z dostępem do ponad miliona instrumentów z całego świata – w tym do AMD, Nvidii, ASML, TSMC czy Super Micro Computer.

Prowadzę tam też dla was publiczne portfel agresywny, które regularnie bije indeksy. Między innymi właśnie dzięki AMD w środku. Możecie go zawsze podejrzeć w linku w opisie, a jeżeli dopiero zakładasz tam konto, możesz odebrać choćby 20 darmowych akcji – o łącznej wartości do 800 dolarów.

Link znajdziesz w opisie – i jeżeli myślisz o inwestowaniu w takie tematy jak AI, to jest naprawdę dobre miejsce, żeby zacząć.

AMD – z zaplecza na front inwestycji AI

No dobrze tylko gdzie w tej całej transformacji jest w ogóle AMD? Skoro mamy do czynienia z największym od dekad, potężnym boomem inwestycyjnym w infrastrukturę, pieniądze na rynek leją się szerokimi strumieniami, a każda, licząca się na świecie firma technologiczna rzuca miliardy dolarów w stronę AI, to naturalne pytanie brzmi: czy AMD w ogóle z tego korzysta?

Jeszcze do niedawna, odpowiedź na to pytanie byłaby dość chłodna i sceptyczna. AMD przez wiele lat, bezskutecznie próbowało wejść do tej gry na poważnie, ale coś zawsze było nie tak – a to za słaby i niestabilny software, a to zbyt późno wprowadzony na rynek sprzęt, a to kompletny brak gotowych, zintegrowanych rozwiązań dla największych graczy, czyli dla wspomnianych „hyperscalerów”. W efekcie, póki co, spółka ta skorzystała z tego potężnego, technologicznego boomu w znacznie, ale to znacznie mniejszym stopniu niż jej główny, konkurent – Nvidia.

Dziś jednak, sytuacja wygląda zupełnie inaczej. Nowe, potężne akceleratory MI300X od AMD zaczęły w końcu pojawiać się w realnych testach u największych, światowych graczy, takich jak Meta i OpenAI, a sama zapowiedź kolejnych, jeszcze potężniejszych serii MI400 i MI450, rozgrzewa w tej chwili rynek do granic.

AMD staje się w końcu, na naszych oczach, coraz bliżej tego, by zostać realną, wiarygodną alternatywą dla dominującej od lat Nvidii. jeżeli tylko im się to uda, to obecne, rynkowe szacunki co do tempa wzrostu tej spółki w najbliższych latach, mogą okazać się bardzo, ale to bardzo mocno niedoszacowane.

W świecie, w którym wszyscy zaciekle walczą o dostęp do jak największej mocy obliczeniowej dla swoich modeli AI, a dostępność najnowszych kart od Nvidia jest wciąż ograniczona i coraz droższa, to sama możliwość dywersyfikacji dostawców staje się dla największych firm coraz większą, strategiczną wartością.

Szczególnie, iż te firmy – od Microsoftu, przez Metę, aż po Oracle – już teraz, zupełnie otwarcie i publicznie, mówią o swojej bliskiej, technologicznej współpracy z AMD. I choćby jeżeli na razie AMD ma zaledwie kilka, skromnych procent udziału w całym, globalnym rynku akceleratorów AI, to przy tym, obserwowanym obecnie, gigantycznym poziomie wzrostu inwestycji, każdy, pojedynczy, dodatkowy punkt procentowy udziału w tym rynku, to są dla firmy absolutnie gigantyczne, dodatkowe ilości rocznego przychodu. To już nie jest pytanie „czy AMD na tym boomie skorzysta?”. To jest pytanie: jak bardzo na nim skorzysta.

Dołącz do nas na Twitterze oraz YouTube i bądź na bieżąco!

Dlaczego AMD wcześniej przegrywało?

A spytacie – dlaczego AMD tak słabo do tej pory rosło w porównaniu do Nvidia i dlaczego ma się to niedługo zmienić? AMD przez długi czas miało ogromne trudności z wejściem do świata sztucznej inteligencji na poważnie. Mimo iż ich akceleratory i procesory oferowały na papierze całkiem interesujące możliwości, to rynek przez lata postrzegał ich jako znacznie mniej atrakcyjną, drugorzędną opcję.

Problem nie leżał jednak tylko w czystej, surowej wydajności sprzętu – chociaż i tutaj Nvidia miała wyraźną przewagę – ale w całym, niezwykle złożonym otoczeniu technologicznym, które w ostatecznym rozrachunku decyduje o tym, czy dane rozwiązanie da się łatwo wdrożyć i efektywnie wykorzystać na masową skalę.

AMD brakowało przede wszystkim kompletnego, spójnego ekosystemu, stabilnego, dojrzałego systemu i gotowych, zintegrowanych rozwiązań. Użytkownicy rzadko kiedy wybierali ich sprzęt, bo… po prostu nie do końca wiedzieli, czego mogą się po nim spodziewać.

Przez całe lata, to właśnie oprogramowanie było prawdziwą, piętą achillesową AMD w tym wyścigu o dominację na rynku akceleratorów AI. Nvidia zbudowała platformę CUDA – potężne, niezwykle stabilne i świetnie udokumentowane środowisko programistyczne, które z czasem stało się złotym standardem całej branży. Programiści i deweloperzy wręcz instynktownie sięgali po narzędzie, bo po prostu, bezproblemowo działało.

Ekosystem Nvidia był dopracowany jak szwajcarski zegarek, z tysiącami dostępnych przykładów, gotowych integracji i z ogromną, globalną społecznością, która była gotowa pomóc w każdej, choćby najtrudniejszej sytuacji. AMD miało za to ROCm – czyli swoją, autorską odpowiedź na platformę CUDA. A raczej… próbę odpowiedzi. Przez wiele, długich lat był to projekt znacznie bardziej eksperymentalny niż produkcyjny. Środowisko to było niezwykle niestabilne, pełne irytujących błędów i trudne do uruchomienia choćby dla najbardziej wytrwałych i zdeterminowanych deweloperów. Kompatybilność z popularnymi, szeroko używanymi bibliotekami do sztucznej inteligencji? Znikoma. Skalowalność na duże, rozproszone systemy? Zapomnij.

ROCm dojrzewa i zmienia reguły gry

Jednak w ostatnim czasie coś w końcu zaczęło się w tej kwestii zmieniać. Najnowsze wersje platformy ROCm są już znacznie bardziej stabilne, znacznie szybsze i, co najważniejsze, zaczynają w końcu wspierać wszystkie, najważniejsze frameworki do sztucznej inteligencji.

Coraz częściej pojawiają się na rynku bardzo wyraźne sygnały, iż ten ekosystem wreszcie dojrzewa do realnego, produkcyjnego użytku. Platforma ROCm przestała być już wyłącznie obiektem frustracji i żartów, a zaczęła być postrzegana jako realna, coraz bardziej wiarygodna alternatywa – może jeszcze nie dla wszystkich, ale dla coraz większej i coraz bardziej znaczącej grupy użytkowników.

CUDA przez cały czas pozostaje i pewnie jeszcze długo pozostanie niekwestionowanym królem. Pytanie brzmi jednak: czy utrzyma swój dotychczasowy, ogromny dystans? ROCm wcale nie musi być lepsze. Wystarczy, iż będzie „wystarczająco dobre” i “znacznie mniej gorsze” niż było do tej pory. Dzisiaj, po raz pierwszy od bardzo dawna, ten scenariusz wcale nie brzmi już jak żart.

Rynek bardzo wyraźnie i głośno sygnalizuje, iż czeka na realną, silną konkurencję. Monopol zawsze boli, a zwłaszcza wtedy, gdy prowadzi do nieustannie wzrastających cen i do bardzo ograniczonej elastyczności. jeżeli AMD zaproponuje niedługo akceleratory, które będą oferowały 70–80% wydajności najnowszych produktów Nvidii, ale przy znacznie niższej cenie i znacznie większej dostępności – wiele firm może bez wahania powiedzieć: „wchodzimy w to!”.

Tym bardziej, iż w świecie AI coraz większy nacisk kładzie się w tej chwili na tak zwaną inferencję – czyli na efektywne wykorzystywanie już wcześniej, potężnym kosztem wytrenowanych, modeli sztucznej inteligencji. Tutaj AMD ma bardzo mocny, techniczny argument: znacznie więcej, szybkiej pamięci HBM w swoich najnowszych akceleratorach. To robi ogromną, realną różnicę przy obsłudze dużych kontekstów w modelach LLM i przy tych wszystkich zadaniach, w których liczy się długość przetwarzanej sekwencji czy wysoka rozdzielczość danych wejściowych.

Technologia to nie wszystko – liczy się cały ekosystem

Kolejną, wciąż istniejącą barierą, jest cała, otaczająca chipy infrastruktura. Nvidia nie tylko sprzedaje same chipy – ona sprzedaje kompletne, zintegrowane i gotowe do użycia systemy. Technologie takie jak NVLink czy NVSwitch, całe, gotowe środowiska w skali „rack-scale”, które można bez najmniejszych problemów i niemal w nieskończoność rozbudowywać o setki, a choćby tysiące kolejnych procesorów GPU.

AMD, niestety, przez cały czas nie ma swoich własnych, w pełni rozwiniętych odpowiedników tych kluczowych, systemowych rozwiązań. Brakuje im tej kompleksowej platformy, która pozwalałaby firmom na łatwe i efektywne budowanie gigantycznych, zintegrowanych klastrów AI na bazie ich sprzętu.

To, niestety, bardzo mocno ogranicza skalowalność i praktyczne zastosowanie ich rozwiązań w tych największych, najbardziej wymagających centrach danych. Z czysto technicznego punktu widzenia, samo AMD naprawdę nie ma się już czego wstydzić. Ich najnowsze układy, jak już wspomniałem, mają często więcej pamięci HBM niż konkurencyjne produkty Nvidii, są niezwykle efektywne pod względem energetycznym, a sam MI300X to bardzo solidny i wydajny chip. Ale na tym, najwyższym poziomie zaawansowania technologicznego, nie wystarczy już mieć tylko „dobrego produktu” – trzeba mieć całą, kompletną i spójną resztę: stabilne oprogramowanie, profesjonalne wsparcie techniczne, gotowe, zintegrowane systemy, oraz ogromne doświadczenie we wdrażaniu tych rozwiązań w skali korporacyjnej (enterprise).

To jest ten ostatni, niezwykle istotny element całej tej, skomplikowanej układanki, który AMD musi jeszcze dołożyć, żeby móc naprawdę, na poważnie powalczyć o duży i dochodowy kawałek całego rynku AI.

Polub nas na Facebook!

Znajdziesz tam więcej wartościowych treści o inwestowani, giełdzie i rynkach.

DNA Rynków – merytorycznie o giełdach i gospodarkach

Pierwsze testy, nadzieje i przełom 2026 roku

Obecnie głównym i najważniejszym układem w ofercie AMD jest wspomniany MI300X – chip niezwykle solidny, z dużą ilością pamięci i z dobrą efektywnością energetyczną. W pierwszych, niezależnych testach wypada całkiem konkurencyjnie, choć przez cały czas nie dorównuje on Nvidia pod względem skalowalności i łatwości wdrożenia na dużą skalę.

Niedawno firma pokazała także MI350 – czyli nieco ulepszoną wersję MI300X – ale rynek już teraz patrzy znacznie dalej w przyszłość. To dopiero nadchodzące serie MI400 i MI450 mają być tym prawdziwym, długo „gamechangerem”: czyli sprzętem od początku przygotowanym z myślą o pełnej integracji w skali „rack-scale” i o dużych, korporacyjnych wdrożeniach. Ich premiera planowana jest na 2026 rok. To właśnie one mają dać firmie wszystkie, niezbędne narzędzia, których do tej pory jej tak bardzo brakowało, by móc wreszcie realnie i skutecznie konkurować z kompletnymi, zintegrowanymi systemami od Nvidia.

Na dziś, udział firmy AMD w całym, globalnym rynku akceleratorów AI to wciąż zaledwie 2–3%, czyli dramatycznie wręcz mniej niż Nvidia. Ale to, moim zdaniem, niedługo zacznie się zmieniać. I choć droga przed nimi jest przez cały czas bardzo długa i wyboista, to na rynku pojawiły się już realne, bardzo obiecujące sygnały, iż AMD swój, symboliczny udział w rynku, w najbliższych kilku kwartałach co najmniej podwoić. Jak na tak bardzo zdominowany przez jednego gracza rynek, byłby to solidny i imponujący krok naprzód.

Jednym z głównych powodów tej nadchodzącej zmiany jest po prostu… rosnące zniecierpliwienie dotychczasowych, największych klientów Nvidia. Coraz więcej firm ma już po prostu dość całkowitej zależności od jednej, jedynej firmy.

Coraz więcej z nich mówi zupełnie otwarcie o pilnej potrzebie dywersyfikacji swoich dostawców. Do tego dochodzi jeszcze najnowszy, nieco kontrowersyjny projekt Nvidii o nazwie „Lepton” – czyli kompleksowy system zarządzania jej kartami w chmurze, który ma jeszcze bardziej ułatwić wdrażanie i optymalizację mocy obliczeniowej.

Na pierwszy rzut oka, brzmi to jak kolejne, przydatne usprawnienie. Ale w praktyce? To pozostało ciaśniejszy, jeszcze bardziej zamknięty ekosystem. Jeszcze większa, niemal całkowita zależność od jednej firmy, od jej warunków licencyjnych, od jej cenników i od jej roadmapy produktowej. To zaczyna irytować jej największych, strategicznych klientów, którzy nie chcą być wyłącznie biernym pasażerem na cudzym pokładzie. Firmy mówią wprost: nie chcemy być na smyczy jednego, jedynego dostawcy. AMD jest więc właśnie, w idealnym dla siebie momencie, próbuje stać się tą jedyną, sensowną i wiarygodną alternatywą.

W efekcie, zainteresowanie produktami AMD systematycznie rośnie. Jeszcze niedawno trudno było brać tę firmę na poważnie w kontekście sztucznej inteligencji, ale sytuacja się zmienia. Zbliżają się dwie wielkie premiery: z jednej strony, nowa, rewolucyjna seria układów od Nvidii – czyli Vera Rubin, a z drugiej – długo wyczekiwana odpowiedź AMD w postaci serii MI400X.

Nikt oczywiście nie ma złudzeń, iż AMD zdoła w tej rundzie przegonić Nvidię, ale… różnice w wydajności mogą być już znacznie, znacznie mniejsze niż kiedykolwiek wcześniej, a jeżeli do tego AMD zaoferuje swoim klientom znacznie lepszą dostępność i niższą cenę, to może w zupełności wystarczyć.

Jeśli tylko AMD dowiezie produkty na czas, to układ sił na rynku może się w końcu, po wielu latach, faktycznie zacząć zmieiać. W czasie tej premiery MI350, pokazano także specjalne nagrania z opiniami pierwszych, testujących go klientów – w tym naprawdę największych, światowych graczy, takich jak Meta, Oracle, Microsoft, czy choćby samo OpenAI! To nie były może jakieś przełomowe, wiążące deklaracje, ale sam fakt, iż te wszystkie, potężne firmy publicznie testują i pozytywnie komentują najnowszy sprzęt od AMD, to już jest naprawdę bardzo, bardzo dużo.

AMD na rozdrożu wielkiej rewolucji

Podsumowując:

  • NVIDIA wciąż prowadzi na poziomie całych, zintegrowanych systemów, systemu (CUDA), ogromnego doświadczenia i potężnego, dojrzałego ekosystemu.
  • AMD systematycznie nadrabia zaległości: MI300X to bardzo dobry, konkurencyjny sprzęt, a platforma ROCm w końcu zaczyna być używalna – szczególnie w swoich najnowszych wersjach.
  • Największa, fundamentalna szansa dla AMD leży w ogromnej chęci całego rynku do dywersyfikacji i do uniezależnienia się od monopolu NVIDII, oraz na organicznym rośnięciu wraz z całym, niezwykle dynamicznie rosnącym rynkiem.
  • Największym, wciąż istniejącym zagrożeniem dla AMD jest brak kompletnego ekosystemu, który byłby w pełni porównywalny z technologiami takimi jak NVLink, z platformą CUDA i z gotowymi rozwiązaniami typu „rack-scale computing”.

Chiński rynek i szansa na odbudowę marż

Jest jeszcze jeden istotny element całej tej układanki. Szansa na wielki powrót do Chin i na szybką odbudowę marż. Potencjalnym, niezwykle pozytywnym zaskoczeniem dla rynku może być niedługo wznowienie sprzedaży przez AMD specjalnych, dostosowanych do wymagań sankcyjnych chipów MI308X do Chin.

Po długim okresie dotkliwych blokad handlowych AMD ma szansę na powrót ze swoją ofertą na ten niezwykle chłonny rynek. jeżeli wszystko pójdzie zgodnie z planem i amerykański Departament Handlu ostatecznie zatwierdzi tę licencję i nie zmieni w ostatniej chwili zdania, to firma może zgarnąć z tego tytułu dodatkowe 700 milionów dolarów przychodu w krótkim terminie, a choćby do 1,5 miliarda dolarów w perspektywie dłuższej! To ogromne pieniądze, tym bardziej iż jeszcze niedawno AMD musiało z bólem serca odpisać w swoich księgach aż 800 milionów dolarów straty, ze względu na zalegające w magazynach zapasy na niezrealizowane, zablokowane zamówienia z Chin.

Lisa Su – liderka, która odmieniła losy AMD

Na sam koniec, jeszcze jedna, niezwykle ważna rzecz. Zanim zaczniemy na poważnie mówić o przyszłości firmy AMD w erze sztucznej inteligencji, warto zadać sobie jedno, fundamentalne pytanie: kto adekwatnie stoi za całą tą, niezwykłą przemianą firmy? Kto poprowadził spółkę, która jeszcze dekadę temu balansowała na granicy bankructwa, do miejsca, w którym dzisiaj realnie rzuca ona wyzwanie takim gigantom jak Nvidia i Intel?

Lisa Su. I nie ma w tym ani grama przesady, gdy mówi się o niej jako o jednej z absolutnie najlepszych i najbardziej skutecznych CEO w całej, najnowszej historii branży technologicznej. Kiedy obejmowała stanowisko szefowej AMD w 2014 roku firma była w opłakanym, niemal tragicznym stanie. Akcje były na swoich historycznych minimach, dług rósł znacznie szybciej niż przychody, a zaufanie całego rynku do tej firmy praktycznie wyparowało.

W całej branży półprzewodników nikt już wtedy nie traktował AMD jako poważnego, liczącego się gracza. A jednak Lisa Su – genialna inżynier z doktoratem z prestiżowego MIT i z ogromnym, praktycznym doświadczeniem zdobytym w takich firmach jak IBM czy Freescale – osiągnęła sukces.

Zamiast kombinować i szukać jakichś szybkich, efektownych, ale krótkoterminowych rozwiązań, obrała ona kurs znacznie trudniejszy, ale, jak się okazało, absolutnie adekwatny – powrót do technologicznych, fundamentalnych korzeni. Postawiła wszystko na jedną kartę: na rozwój własnych, autorskich i innowacyjnych architektur procesorów i układów graficznych.

Zespół, który sama osobiście nadzorowała, przez kilka, długich lat, w kompletnej ciszy i z dala od medialnego zgiełku, budował zupełnie nową, rewolucyjną platformę – Zen. I w 2017 roku cały świat zobaczył w końcu efekt tej niezwykle ciężkiej pracy: procesory z serii Ryzen i Epyc, które nie tylko były w stanie konkurować ze znacznie potężniejszym Intelem, ale często wręcz go przeganiały! Wydajność, efektywność energetyczna, cena –AMD w spektakularny sposób wróciła do gry. najważniejsze było także to, czego firma AMD pod jej wodzą nie zrobiła. Lisa Su świadomie zrezygnowała z bezmyślnego gonienia za każdą, nową modą – firma nie rzuciła się na rynek telefonów ani na Internet Rzeczy (IoT).

Zamiast tego, w pełni skupiła się na tym, w czym mogła być naprawdę najlepsza: na komputerach osobistych, na serwerach, na centrach danych i na gamingu. To zadziałało. Dzisiaj AMD dostarcza swoje układy do konsol PlayStation 5 i Xbox Series X, wspiera najpotężniejsze superkomputery na świecie i zdobywa coraz większe, strategiczne zlecenia od takich, technologicznych gigantów jak Microsoft, Amazon czy Meta. Przychody firmy rosną w zawrotnym tempie, a rozpoznawalność jej marki przebiła poziomy, które jeszcze kilka lat temu wydawały się absolutnie nierealne.

Ale to nie jest tylko historia o samych produktach. To jest historia o unikalnym stylu zarządzania. Lisa Su nie jest typowym, „powerpointowym CEO”. Ona jest. Jest techniczna. Jest konkretna. Bierze aktywny udział w spotkaniach swoich inżynierów, zna techniczne detale, rozumie kod i nie boi się podejmowania trudnych decyzji. Potrafiła bez wahania odciąć te gałęzie biznesu, które nie działały, a jednocześnie, z ogromną odwagą, zainwestować w daleką przyszłość – choćby wtedy, gdy każdy, najmniejszy błąd mógł być tym ostatnim.

Dzisiaj AMD to firma o kapitalizacji przekraczającej 250 miliardów dolarów, która walczy jak równy z równym z gigantami, którzy przez całe lata ją deklasowali i upokarzali. Jeszcze w 2015 roku ta wycena sięgała…ledwo ponad 3 miliardów.

Kiedy przed nami nowa, wspaniała era sztucznej inteligencji, fundamentalne pytanie brzmi: kto ma większe prawo do tego, by poprowadzić tę firmę przez kolejną, wielką rewolucję, jeżeli nie osoba, która już raz, cudem, uratowała ją przed całkowitym upadkiem i zamieniła w globalnego, technologicznego lidera? Lisa Su już raz dokonała niemożliwego. I wszystko wskazuje na to, iż jeszcze nie skończyła i dlatego ja dalej kupuję AMD i po raz kolejny – nie mylę się w tym wypadku.

Załóż konto na Freedom24 i odbierz od 3 do 20 darmowych akcji o wartości choćby 800 USD każda!

Szczegółowy opis promocji znajdziesz na: https://freedom24.club/dnarynkow_welcome

Do zarobienia,
Piotr Cymcyk

Porcja informacji o rynku prosto na Twoją skrzynkę w każdą niedzielę o 19:00
67
5
Idź do oryginalnego materiału