Chińska AI będzie rewolucją? "Ma szansę zmienić globalny rynek"

2 godzin temu
Zdjęcie: Polsat News


Prof. Piotr Sankowski ocenił, iż chiński model sztucznej inteligencji DeepSeek ma szansę, ze względu na niskie koszty, zmienić globalny rynek, w tym Unii Europejskiej. - Wielokrotne zmniejszenie kosztu takich modeli na pewno spowoduje, iż rozwiązania oparte na sztucznej inteligencji staną się jeszcze bardziej dostępne - wskazał.


Model sztucznej inteligencji DeepSeek ze względu na niskie koszty ma szansę zmienić globalny rynek, w tym Unii Europejskiej - ocenił prof. Piotr Sankowski w komentarzu udzielonym PAP. Otwartość modelu sprawi, iż AI będzie lepiej dostępna w sektorze MŚP - wskazał natomiast prof. Tomasz Trzciński.


DeepSeek jest tańszy od konkurencji? Amerykańskie firmy zanotowały ogromne spadki


Na początku tygodnia firma DeepSeek z Chin udostępniła darmowy model językowy sztucznej inteligencji, który, jak twierdzi firma, jest o wiele tańszy od konkurencji. Po tej informacji spadki na giełdzie zanotowały największe amerykańskie firmy związane z rozwojem sztucznej inteligencji oraz jej infrastrukturą - Nvidia, Meta, Microsoft, Tesla czy Apple.Reklama


Jak wskazał dr hab. Piotr Sankowski, prof. Uniwersytetu Warszawskiego w komentarzu udzielonemu PAP, amerykańskie modele, np. OpenAI czy Grok są modelami zamkniętymi, tzn. nie można ich uruchomić na własnym komputerze. Natomiast DeepSeek to model otwarty, co sprawia, iż firmy czy badacze mogą go modyfikować i dostosować do własnych potrzeb. Podobnie działają modele LLama od MetaAI, jednak nie są one dostępne na terenie Unii Europejskiej - dodał.
- W związku z tym DeepSeek ma szansę zmienić globalny rynek, w tym Unii Europejskiej. Wielokrotne zmniejszenie kosztu takich modeli na pewno spowoduje, iż rozwiązania oparte na sztucznej inteligencji staną się jeszcze bardziej dostępne - ocenił.
Podobnego zdania jest prof. dr hab. inż. Tomasz Trzciński. - Otwarte oprogramowanie (open source) może być istotnym katalizatorem adopcji AI w wielu nowych aplikacjach i sektorach, w tym MŚP - podkreślił w komentarzu dla PAP.


DeepSeek nie ustępuje jakością odpowiedzi innym modelom


DeepSeek R1, a dokładniej jego bardziej kompaktowe wersje, są dużo mniejsze w znaczeniu liczby parametrów niż konkurencyjne rozwiązania, oferowane przez gigantów technologicznych takich jak OpenAI, Google czy Meta - zwrócił uwagę prof. Trzciński. - Wpływa na to szereg innowacji zręcznie połączonych w całość, takich jak zmniejszenie dokładności liczb czy wydajne zarządzanie pamięcią procesora - wyjaśnił. To z kolei - jak powiedział - przekłada się na znaczące oszczędności w kosztach treningu oraz użycia modelu DeepSeek.
Chiny podały, iż ich model jest ok. 25 razy tańszy niż modele konkurencji. Jak jednak wskazała w mediach społecznościowych Sylwia Czubkowska, dziennikarka i ekspertka ds. nowych technologii, za modelem DeepSeek stoi fundusz High-Flyer i jego założyciel Liang Wenfeng. Sfinansował on superkomputery "Firefly I", w kwocie ok. 29 mln dol. i "Firefly II" w kwocie 145 mln dol., dzięki którym powstał model DeepSeek. Od 2015 High-Flyer skupował też chipy Nvidii - powiedziała Czubkowska.
- Różnica w stosunku do konkurencji może nie być aż tak gigantyczna, jak pojawiające się w mediach wartości (6 mln dol. vs ponad 150 mln dol. w przypadku dotychczasowych modeli), ponieważ raportowane przez Chiny dane dotyczą tylko jednej finalnej rundy treningu, do której wykonania była potrzebna masa wcześniejszych eksperymentów. Nie zmienia to jednak faktu, iż zaproponowany model rzeczywiście daje duże oszczędności - zauważył prof. Trzciński.
Natomiast prof. Sankowski zwrócił uwagę, iż mimo iż model DeepSeek jest tańszy od konkurencji, w testach nie ustępuje jakością odpowiedzi innym wiodącym modelom. - Wydaje się, iż model jest energooszczędny, jak twierdzą Chińczycy. Używa on wielu różnych technik zmniejszania kosztów w trakcie treningu jak i użycia. Także z moich własnych prac dotyczących modeli językowych wiem, iż odpowiednie dobranie architektury modelu może zmniejszyć koszty jego treningu dziesięciokrotnie. Trzeba też pamiętać, iż koszty treningu modeli wyznacza się na podstawie kosztów wynajęcia chmury do przeprowadzenia treningu, a nie na podstawie kosztów zakupu wszystkich chipów do tego potrzebnych - dodał.


DeepSeek był trenowany na modelu ChatGPT? "Jest to prawdopodobne"


W środę firma OpenAI wydała oświadczenie, w którym stwierdziła, iż ma dowody na to, iż czatbot DeepSeek był trenowany na modelu ChatGPT.
- Nie wykluczam, iż jest to prawdopodobne - ocenił prof. Trzciński. Dodał, iż polityka udostępnienia modelu przez OpenAI i regulamin ChatGPT zakazuje takich praktyk. - W rzeczywistości jednak możliwe i stosowane przez DeepSeek jest tzw. destylowanie modeli, a więc trenowanie ich przy użyciu odpowiedzi innych modeli, w tym np. ChatGPT w celu poprawienia ich rezultatów - wyjaśnił. Udowodnienie takiej praktyki ze względu na złożoność procesu treningowego jest jednak niełatwe i oparte na poszlakach - podkreślił.
W środę amerykańska firma cyberbezpieczeństwa Wiz odkryła w sieci niezabezpieczoną bazę danych DeepSeek, zawierającą m.in. historie czatów. Zniknęła ona z internetu godzinę po zgłoszeniu. Niedługo po tym incydencie Euroconsumers, czyli europejska koalicja organizacji konsumenckich, złożyła skargę do włoskiego urzędu ochrony danych (GPDP), kwestionując zgodność działania chińskiej AI z RODO. W odpowiedzi GPDP zablokował model we Włoszech w trybie pilnym. GPDP oraz irlandzki urząd ochrony danych (DPC) zażądały wyjaśnień od twórców modelu nt. przetwarzania przez nich danych. Natomiast Biały Dom potwierdził, iż Rada Bezpieczeństwa Narodowego USA dokonuje przeglądu DeepSeek pod kątem zagrożeń dla bezpieczeństwa narodowego.
- Czy jest się czego bać? I tak, i nie. DeepSeek jako usługa, np. korzystanie z czatbota, nie jest bezpieczny - oceniła dr Paula Skrzypecka, prawniczka Creativa Legal w rozmowie z PAP - wskazała. - Ma zupełnie standardowe regulaminy czy polityki prywatności, ale tutaj istotny jest kontekst. Usługa jest hostowana w Chinach, gdzie nie ma ani gwarancji dotyczących prywatności, ani ochrony tajemnic czy też ograniczeń przed inwigilacją ze strony organów państwowych - zauważyła.
Wskazała, iż większe gwarancje bezpieczeństwa daje korzystanie z otwartego modelu we własnym domu czy firmie. - Nie wiemy, na jakich danych został wytrenowany DeepSeek, ale to my kształtujemy zasady przetwarzania informacji, w tym danych osobowych w naszej organizacji. Warto więc wdrożyć zasadę ograniczonego zaufania, podobnie jak przy innych modelach - podała prawniczka.


Autocenzura modelu DeepSeek. "Komunistyczne Chiny stworzyły bardziej otwarte rozwiązanie niż USA"


Prof. Sankowski uważa, iż założenia usługi są podobne do innych modeli udostępnianych darmowo; dopiero płatne wersje modeli dają gwarancję, iż dane, które przekazujemy modelowi, nie będą w jakikolwiek sposób później użyte. - Natomiast, ponieważ model jest otwarty, to możemy go uruchomić lokalnie do naszych potrzeb i wtedy dane będą przetwarzane tylko na naszych serwerach - podkreślił.
Kolejna kwestia podnoszona przez ekspertów to autocenzura modelu DeepSeek, który odmawia generowania odpowiedzi na pytania dotyczące działań chińskich władz czy sytuacji w Tajwanie. - Paradoksalnie, to komunistyczne Chiny stworzyły bardziej otwarte i demokratyzujące technologię rozwiązanie niż liberalne Stany Zjednoczone, choć piętno odmiennych wartości użytkownicy mogą zobaczyć choćby pytając R1 o wydarzenia z najnowszej historii Chin, np. protesty na placu Tiananmen, które model językowy DeepSeek zręcznie omija - ocenił prof. Trzciński.


Według prof. Sankowskiego także modele udostępnianie przez amerykańskie korporacje są ocenzurowane, ponieważ odmawiają żartów na pewne tematy czy wykonywania pewnych zadań. - Trudno ocenić pryncypialnie różnice w podejściu, o ile tu i tu mamy do czynienia z ograniczeniami generowania pewnych treści - wskazał.
Prof. Sankowski uważa, iż Polska musi zdecydowanie aktywować większe środki do udziału w globalnym wyścigu AI, a także szukać naszych specjalizacji. - Najważniejszym elementem, który daje nam dobre miejsce startowe są talenty naszych informatyków, których od lat kształcimy na najlepszych na świecie - podkreślił.
Idź do oryginalnego materiału