Cisco i NVIDIA wyraźnie ustawiają się w centrum hardware’owej debaty o tym, jak w praktyce ma wyglądać infrastruktura AI po epoce pierwszych implementacji. Firma z San Jose pokazała przełącznik N9100, pierwszy switch data center oparty na układzie Spectrum-X NVIDIA i zgodny z programem NVIDIA Cloud Partner. To z pozoru kolejny element w ofercie sieciowej, ale w rzeczywistości jest to istotny kawałek meta-gry: Cisco wchodzi w przyszłą ligę infrastruktury neocloud i suwerennych chmur, czyli segmentu, w którym liczyć się będzie nie tyle jeden hyperscaler, co architektura, którą można wdrożyć lokalnie, kontrolować i optymalizować pod AI.
Rzeczywista rewolucja infrastrukturalna nie wydarzy się w LLM-ach, tylko w sieci. Patel z Cisco mówi o największej w historii rozbudowie DC – i to nie jest marketing: wydatki na AI data center w 2025 są już liczone jako CAPEX klasy wzrostu z peak’ów 4G i hyperscalerowego boomu 2016-2020; największym wąskim gardłem nie jest już GPU, ale topologia i przepustowość sieci (w tym front-end i back-end Ethernet). Ogłoszenie Cisco dołącza do trendu, który jest widoczny w raportach branżowych: hyperscalerzy zaczęli przechodzić od sprzętowego GPU wars do network wars.
Cisco robi tu dwa ruchy naraz. Pierwszy to produkt: N9100, z wyborem NX-OS lub SONiC, co pokazuje, iż ucieczka klientów enterprise i telco w stronę większej suwerenności systemu systemowego zaczyna być faktem, a nie slajdem. Drugi to próba zbudowania referencyjnej architektury Cloud Reference wspólnej z NVIDIA. Chodzi o to, aby mieć wspólną konfigurację dla suwerennych chmur AI – od przełączników, przez DPU, po SuperNIC. To nie jest kolejna linia produktowa, tylko ruch w kierunku fabryki AI, którą klient może wdrożyć jako blueprint.
Dodatkowa warstwa to AI Security. Cisco już po akwizycji Splunka było ustawione na hybrydę: security + obserwowalność + AI. Teraz dokłada warstwę integracji z NVIDIA NeMo Guardrails, co jest sygnałem, iż AI compliance i enforce’owanie polityk w LLM-ach będą częścią security stacku. Splunk Observability Cloud jest tutaj katalizatorem: daje możliwość jednego widoku na koszty i jakość inferencji. To nie jest fajerwerk produktowy, to jest zbliżenie do operacyjnego modelu AI w dużych przedsiębiorstwach.
Najciekawszy fragment komunikatu to jednak AI-RAN dla telekomunikacji, jako zapowiedź sieci 6G z natywną AI. To jest ruch stricte pod operatorów mobilnych, którym AI ma zejść bliżej stacji bazowych, zamiast do cloud regionów. Przemysł telco będzie musiał podnieść efektywność obsługi ruchu, zanim AI zacznie masowo żyć w telefonach, AR i robotyce. Ta kooperacja z NVIDIA na warstwie RAN może być pierwszym realnym prototypem 6G, który będzie mieć sens biznesowy i operacyjny dla MNO.
Cisco gra o to, żeby stać się integratorem AI ready infrastructure i mieć prawo własności do definicji tego pojęcia. Właśnie dlatego to ogłoszenie jest ważniejsze, niż wygląda na pierwszy rzut oka. Cisco próbuje stać się miejscem, w którym spotyka się hardware, sieć, bezpieczeństwo, observability i operacyjność AI. W 2025 to może być najmocniejsza definicja wartości w infrastrukturze.

2 godzin temu










