Oficjalnie wygląda to tak, iż DeepSeek obniżył koszty trenowania modeli językowych ze 100 milionów dolarów do 5 milionów. Wymagania sprzętowe spadły ze 100 tys. jednostek do 2 tys. jednostek procesowych. Innowacyjne podejście DeepSeek miało polegać na mniejszej precyzji obliczeń, czyli zamiast liczb zapisywanych na 32 bitach, zostały użyte liczby ośmiobitowe, a to zmniejsza zużycie pamięci o 75% – powiedział Marek Meissner, dziennikarz ISBiznes.pl w cotygodniowym komentarzu dla ISBnews.TV.
👉👉👉 Więcej informacji w serwisie ISBnews.TV
www.isbnews.tv/
www.linkedin.com/company/14790666/admin/
www.facebook.com/ISBnews-Informac…-547016962005593
twitter.com/AgencjaISB