OpenAI testuje Flex – tańsze API dla mniej krytycznych zastosowań

2 dni temu
Zdjęcie: OpenAI Flex


OpenAI rozszerza swoją ofertę dla deweloperów, uruchamiając nowy tryb przetwarzania Flex dla użytkowników API. Flex jest skierowany do tych, którzy szukają kompromisu między kosztem a wydajnością — i może stać się istotnym elementem w walce o rynek usług AI.

Flex to odpowiedź na rosnącą presję cenową ze strony konkurentów, takich jak Google czy Anthropic, którzy aktywnie poszukują sposobów, by przyciągnąć użytkowników korporacyjnych do własnych rozwiązań AI. Nowa opcja od OpenAI umożliwia realizację zapytań po niższej cenie, ale w zamian użytkownicy muszą zaakceptować dłuższe czasy odpowiedzi i możliwość czasowej niedostępności zasobów.

Model działania Flex przypomina rozwiązania typu spot instances znane z rynku chmurowego — użytkownik płaci mniej, ale godzi się na mniejszą gwarancję dostępności. OpenAI otwarcie zaznacza, iż żądania w trybie Flex mogą być odrzucane w momentach dużego obciążenia, jednak użytkownicy nie ponoszą wtedy żadnych kosztów. To ruch, który może szczególnie przypaść do gustu firmom budującym systemy testowe, aplikacje do przetwarzania danych w tle lub inne mniej czasowrażliwe usługi.

Technicznie rzecz biorąc, Flex opiera się na istniejących stawkach wsadowych OpenAI, a aktywacja usługi sprowadza się do ustawienia odpowiedniego parametru (service_tier = flex) w żądaniu API. Nowość obsługuje modele mini o3 i o4, czyli lżejsze i tańsze warianty głównych modeli OpenAI, co sugeruje, iż firma celuje w użytkowników ceniących optymalizację kosztów przy zachowaniu podstawowej jakości.

OpenAI Flex – dlaczego to ważne?

OpenAI coraz mocniej dywersyfikuje swoją ofertę. Firma stara się pokryć cały wachlarz potrzeb — od usług premium, takich jak ChatGPT Team i Enterprise, po rozwiązania dla mniej wymagających scenariuszy. Jednocześnie jest to ukłon w stronę środowiska developerskiego, które od miesięcy sygnalizowało, iż rosnące koszty korzystania z AI stają się barierą dla eksperymentów i innowacji.

Warto też zauważyć, iż elastyczne modele cenowe to w tej chwili trend w całej branży AI. Amazon Bedrock, Google Vertex AI czy choćby mniejsze startupy intensywnie pracują nad podobnymi opcjami, aby lepiej zarządzać wykorzystaniem mocy obliczeniowej i optymalizować koszty własne. OpenAI, wprowadzając Flex, pokazuje, iż jest świadome tego wyścigu — i nie zamierza oddać pola bez walki.

Co dalej?

Na razie Flex jest dostępny w wersji beta, co oznacza, iż OpenAI będzie obserwować, jak użytkownicy reagują na nowe możliwości i jak rozwiązanie sprawdza się w realnych warunkach. jeżeli adaptacja będzie szybka, można się spodziewać, iż podobne modele cenowe zostaną wprowadzone także dla bardziej zaawansowanych modeli lub zostaną rozbudowane o kolejne opcje kontroli jakości i priorytetów.

Idź do oryginalnego materiału