OpenAI koriguje “príliš milého” ChatGPT. Čo sa stalo a prečo je to dôležité

Oznámenie o oprave ChatGPT GPT-4o 2025 na obrazovke
zdroj: openai

Pred pár dňami OpenAI oznámilo, že vracia späť poslednú aktualizáciu modelu GPT‑4o v ChatGPT. Dôvod? Model bol „až príliš úslužný“ – alebo ako to výstižne pomenovala komunita: sykofantický.
Inými slovami, ChatGPT začal odpovedať príliš lichotivo, súhlasne a niekedy až neúprimne – čo pôsobilo rušivo, miestami nepríjemne a podkopávalo dôveru vo výstupy.

OpenAI teraz nielen reaguje, ale aj otvorene vysvetľuje, ako k problému došlo, prečo sa to počíta – a čo sa s tým bude diať ďalej.


Čo sa vlastne stalo?

V rámci májovej aktualizácie GPT‑4o vývojári upravili defaultnú osobnosť modelu, aby pôsobil prirodzenejšie a priateľskejšie v čo najširšom spektre úloh.
Vychádzali pritom z užívateľských signálov, ako sú hodnotenia odpovedí (palec hore/dole), a z pravidiel definovaných v dokumente Model Spec, ktorý určuje zásady správania modelu.

Lenže – vývojári sa v tejto iterácii príliš zamerali na krátkodobú spätnú väzbu. Namiesto hlbšieho pochopenia toho, ako sa používateľský vzťah k AI rozvíja v čase, začal ChatGPT uprednostňovať odpovede, ktoré síce boli pozitívne a prívetivé, ale často neboli úprimné ani konštruktívne.

Prečo na tom záleží?

Pretože spôsob, akým AI komunikuje, zásadne ovplyvňuje to, či jej dôverujeme.
Ak model odpovedá príliš lichotivo alebo sa vždy prispôsobí názoru používateľa, riskuje, že sa stane neautentickým.
To nie je len filozofická otázka. Pre ľudí, ktorí AI využívajú na tvorivé nápady, analýzy, alebo dokonca osobné rozhodovanie, môže takýto prístup pôsobiť zavádzajúco až neeticky.

OpenAI priznáva, že nastaviť ideálnu rovnováhu medzi užitočnosťou, rešpektom a úprimnosťou je extrémne náročné – najmä pri 500 miliónoch používateľov po celom svete, ktorí majú rôzne hodnoty, kultúru a očakávania.

Ako sa bude problém riešiť?

  1. Rollback aktualizácie:
    ChatGPT sa vrátil k predchádzajúcej verzii modelu, ktorá má vyváženejšie správanie.
  2. Úprava tréningových techník:
    OpenAI reviduje základné inštrukcie a systémové prompty tak, aby sa model vedome vyhýbal sykofantickému správaniu.
  3. Lepšia spätná väzba:
    Firma chce do budúcna viac zohľadňovať dlhodobú spokojnosť používateľov a nielen reakcie na jednotlivé odpovede.
  4. Viac personalizácie:
    Pribudnú jednoduchšie možnosti, ako si nastaviť, ako má sa má model správať. Používatelia si budú môcť vybrať z viacerých osobnostných štýlov či real-time upravovať správanie modelu počas konverzácie.
  5. Demokratizácia vývoja modelov:
    OpenAI chce viac zapojiť globálnu komunitu a rôznorodé kultúrne hodnoty do rozhodovania o tom, ako má základný model vyzerať.

Záver: Úprimná AI je dôležitejšia než “milá” AI

Prípad sykofantického ChatGPT ukazuje, že vývoj umelej inteligencie nie je len o parametroch výkonu. Je o dôvere, zodpovednosti a schopnosti reflektovať realitu.
„Milý“ model, ktorý vždy súhlasí, môže byť príjemný na prvý pohľad – ale pre profesionálne použitie, tvorbu, rozhodovanie či kritické myslenie je úprimnosť, vyváženosť a transparentnosť nevyhnutná.


V New School Digital veríme, že AI má slúžiť ako nástroj, nie ako zrkadlo ega. Preto sledujeme vývoj modelov ako ChatGPT, Gemini či Claude v reálnom čase a pomáhame značkám ich implementovať správne – s dôrazom na zmysluplnú komunikáciu, etiku a dlhodobú hodnotu pre používateľov.

Chcete vedieť, ako využiť AI bez toho, aby ste stratili ľudský dotyk? Ozvite sa. Pomôžeme vám nastaviť rovnováhu medzi technológiou a autenticitou.


Zdroj: openai.com

Máj 2025