OpenAI zaleca porzucenie starych promptów dla GPT-5.5. Minimalne instrukcje przewyższają złożone, a definicje ról wracają na szczyt zalecanej struktury.

Źródło zdjęcia: The Decoder

OpenAI po raz drugi eliminuje osobny model programistyczny Codex, integrując go z GPT-5.5. Wersja 5.3 była ostatnim samodzielnym Codex.

Alibaba wypuściła Qwen3.6-27B z 27 mld parametrów, który przewyższa model z 397 mld parametrów w benchmarkach kodowania. Dostępny jako open-source.
OpenAI opublikowało nowy przewodnik dotyczący promptowania dla GPT-5.5 z jasnym przesłaniem: nie używaj ponownie starych promptów. Firma zaleca rozpoczęcie od nowa z minimalnymi, skoncentrowanymi na rezultacie instrukcjami. Przewodnik radykalnie zmienia podejście do tworzenia promptów, przywracając definicje ról na czołowe miejsce w strukturze.
Według OpenAI deweloperzy nie powinni traktować GPT-5.5 jako bezpośredniego zastępstwa dla starszych modeli jak GPT-5.2 czy GPT-5.4. Migracja powinna rozpocząć się od zera z najmniejszym możliwym promptem, który nadal wykonuje zadanie.
• Stare prompty hamują wydajność — zbyt szczegółowe specyfikacje procesów z wcześniejszych modeli mogą ograniczać możliwości GPT-5.5, który działa efektywniej przy mniej dyrektywnym prowadzeniu
• Minimalne instrukcje przewyższają złożone — krótkie prompty zorientowane na wynik często osiągają lepsze rezultaty niż obszerne stosy instrukcji procesowych
• Definicje ról wracają na szczyt — OpenAI ponownie umieszcza definicje ról na początku zalecanej struktury promptów, odwracając wcześniejsze trendy w społeczności
• Nowa struktura siedmioelementowa — przewodnik wprowadza schemat rozpoczynający się od jasnej definicji roli, zachęcając do budowania promptów od podstaw
• Elastyczne poziomy wysiłku rozumowania — GPT-5.5 oferuje ustawienia "niski", "średni" i "wysoki" poziom wysiłku, przy czym niższe poziomy często wystarczają
Przewodnik wyraźnie ostrzega przed przenoszeniem każdej instrukcji ze starszych stosów promptów. Starsze prompty często nadmiernie specyfikowały procesy, ponieważ wcześniejsze modele wymagały więcej prowadzenia za rękę. W przypadku GPT-5.5 te dodatkowe szczegóły tworzą szum, zawężają przestrzeń wyszukiwania modelu lub produkują mechanicznie brzmiące odpowiedzi.
Zamiast tego prompt powinien określać docelowy wynik, kryteria sukcesu, ograniczenia i dostępny kontekst, a następnie pozwolić modelowi samemu wymyślić sposób osiągnięcia celu. Pozytywny przykład z przewodnika to prompt obsługi klienta definiujący tylko cel:
"Rozwiąż problem klienta od początku do końca. Sukces oznacza: podjęcie decyzji o uprawnieniach na podstawie dostępnych danych polityki i konta, ukończenie każdej dozwolonej akcji przed odpowiedzią, ostateczna odpowiedź zawiera completed_actions, customer_message i blockers. Jeśli brakuje dowodów, zapytaj o najmniejsze brakujące pole."
Negatywny przykład mikrozarządza każdym krokiem: "Najpierw zbadaj A, potem zbadaj B, potem porównaj każde pole, potem przemyśl wszystkie możliwe wyjątki, potem zdecyduj, które narzędzie wywołać..."
Społeczność promptująca spierała się, czy definicje ról nadal mają znaczenie w nowszych modelach. Niektórzy odpisali je jako niepotrzebne lub wręcz szkodliwe. Przewodnik GPT-5.5 odpiera te zarzuty: zalecana struktura promptu rozpoczyna się od definicji roli i kontekstu.
Rekomendowana struktura obejmuje siedem elementów:
OpenAI oferuje dwa kontrastujące przykłady stylu współpracy. Pierwszy, faktyczny i skoncentrowany na zadaniach: "Jesteś zdolnym współpracownikiem: przystępny, stabilny i bezpośredni. Zakładaj, że użytkownik jest kompetentny i działa w dobrej wierze..."
Drugi, bardziej ekspresyjny: "Przyjmij żywą obecność konwersacyjną: inteligentną, ciekawą, zabawną gdy to właściwe i uważną na myślenie użytkownika. Zadawaj dobre pytania gdy problem jest niejasny..."
Każda sekcja powinna pozostać krótka, a szczegóły dodawane tylko tam, gdzie rzeczywiście zmieniają zachowanie. OpenAI podkreśla, że strukturę należy traktować jako punkt wyjścia, nie sztywny szablon.