
Gdy inni jeszcze dopracowują swoje „supermodele”, OpenAI już pakuje kolejne generacje do jednego pudełka. Nadchodzi GPT-5 – system, który ma nie tylko zastąpić wszystko, co do tej pory stworzyli, ale też zlikwidować chaos w ofercie i przy okazji… zbliżyć nas o krok do AGI.
Koniec z wybieraniem modelu. GPT-5 ma robić to za ciebie
„Nienawidzimy tego, jak skomplikowane stały się nasze oferty modeli i produktów” – powiedział Sam Altman, szef OpenAI, jeszcze w lutym. I nie było to rzucanie słów na wiatr. GPT-5 to odpowiedź na frustrację użytkowników, którzy nie wiedzieli, kiedy sięgać po GPT-4o, a kiedy po o4-mini. Teraz to model ma zdecydować, czy sytuacja wymaga błyskawicznej odpowiedzi, czy głębokiego rozumowania.
Połączenie modeli GPT i serii „o” ma nie tylko uprościć UX, ale też zwiększyć spójność działania – i to w każdej formie: tekst, obraz, dźwięk, dane. Innymi słowy: jedno narzędzie, wiele możliwości, mniej klików.
Sierpień 2025: premiera GPT-5. Dla wszystkich, ale nie wszystko
Jeśli wszystko pójdzie zgodnie z planem, GPT-5 zadebiutuje już na początku sierpnia. W podstawowej wersji będzie dostępny dla każdego użytkownika ChatGPT – za darmo. Ale jak łatwo się domyślić, pełnię mocy dostaną subskrybenci – czyli ci, którzy płacą za Plus, Team albo Enterprise.
Wersja „standardowa” ma wystarczyć do większości codziennych zastosowań, ale jeśli chcesz skorzystać z „wyższych poziomów inteligencji”, musisz sięgnąć do portfela.
GPT-5 mini i nano – AI na miarę twojego budżetu
Nowy system pojawi się nie tylko w ChatGPT. OpenAI planuje też wprowadzenie lekkich wariantów GPT-5 – wersji „mini” i „nano”, dostępnych przez API. Deweloperzy będą mogli dobrać model do swoich potrzeb (i możliwości finansowych), nie rezygnując z dostępu do nowej generacji rozumowania.
To odpowiedź na rosnącą konkurencję ze strony Llama 3, Claude 3, czy Gemini, które coraz mocniej wchodzą na rynek enterprise i developer tools.
Multimodalność w jednym miejscu. Bez przełączania się
GPT-5 zintegrowany będzie z funkcjami, które do tej pory działały osobno: obsługa obrazu, głosu, narzędzia Deep Research czy przeszukiwanie internetu. To ma być jedna z kluczowych zmian – system sam zdecyduje, jak wykorzystać dostępne sensory i narzędzia, żeby jak najlepiej odpowiedzieć na pytanie użytkownika.
Dla przykładu: zapytasz o dane statystyczne? GPT-5 może przeszukać sieć, przeanalizować wykres i opowiedzieć ci o wynikach – głosem. Bez ręcznego przełączania między narzędziami.
Open-source? Tak, ale nie teraz
Równolegle z premierą GPT-5, OpenAI planowało wypuszczenie pierwszego od lat modelu open-source. Miał być podobny do o3-mini i wspierać rozumowanie, ale… termin przesunięto. Dlaczego? Jak stwierdził Altman, potrzebne są „dodatkowe testy bezpieczeństwa”. Chcą uniknąć „błędu Groka” – czyli wypuszczenia niedojrzałego systemu, który potem trzeba będzie naprawiać na oczach całego świata.
A gdzie ta AGI?
Nie da się ukryć: cała ta integracja i nowa strategia OpenAI ma jeden cel – zbliżyć się do AGI, czyli ogólnej sztucznej inteligencji. GPT-5 to kolejny krok, ale jeszcze nie ostatni. Altman przyznał, że zespół OpenAI zdobył złoty medal na Międzynarodowej Olimpiadzie Matematycznej (IMO) dzięki eksperymentalnemu modelowi, który przewyższa możliwości GPT-5. Tyle że ten model nie zostanie jeszcze udostępniony publicznie – nie wcześniej niż za kilka miesięcy.
Dlaczego to ważne? Bo gdy OpenAI ogłosi, że osiągnęło AGI, Microsoft – ich kluczowy partner – straci prawa do przychodów z przyszłych modeli. A to zmienia reguły gry.
Czy GPT-5 spełni oczekiwania?
Na papierze wygląda to jak idealne rozwiązanie – szybsze, mądrzejsze, bardziej intuicyjne. Ale prawdziwe pytanie brzmi: czy GPT-5 zdoła zbudować zaufanie i pokazać, że uproszczenie modelu nie oznacza rezygnacji z precyzji?
Tego dowiemy się już niedługo. Jedno jest pewne: zbliżamy się do punktu, w którym pytanie nie brzmi już „czy AI nas wyprzedzi?”, tylko „czy jeszcze mamy nad nią kontrolę?”.