De la bun început: povestea îl are în centru pe ChatGPT, mai precis modul în care conversațiile cu GPT-4o pot fi redirecționate către un alt model în fundal; evenimentul a avut loc online și a fost observat de utilizatori în weekend. De la versiunile timpurii ale modelelor conversaționale până la iterațiile recente, platformele AI au introdus constant mecanisme pentru gestionarea subiectelor sensibile, iar acum a apărut unul care schimbă modelul folosit atunci când detectează contexte emoționale sau potențial periculoase.
Mulți au remarcat că, brusc, cererile către GPT-4o sunt preluate de un model necunoscut. La început fenomenul a creat confuzie: oamenii au crezut că sistemul „procesează mai adânc” și comută către GPT-5 în modul automat când soliciți o analiză complexă. Nemulțumirea majoră a apărut însă din redirecționarea conversațiilor GPT-4o către un model focalizat pe siguranță, probabil o variantă GPT-5 numită gpt-5-chat-safety. Se pare că asta se întâmplă mai ales când discuția atinge teme sensibile sau emoționale, iar sistemul consideră necesară o abordare mai precaută.
OpenAI a confirmat existența acestor rutări, afirmând că nu există intenții ascunse. Nick Turley, vicepreședintele responsabil cu ChatGPT, a precizat pe X că schimbarea modelului se produce la nivel de mesaj și este temporară; utilizatorul poate întreba ce model este activ și i se va spune. Practic, dacă mesajul declanșează semnale de risc, sistemul poate comuta către un model de „reasoning” sau către un GPT-5 pregătit pentru astfel de contexte, pentru a genera răspunsuri tratate cu mai multă prudență. Nu există opțiunea de a dezactiva acest mecanism, face parte din arhitectura platformei pentru a aplica măsuri de siguranță.
Motivația comunicată de OpenAI este consolidarea protecțiilor și învățarea din modul real de utilizare înainte de un eventual rollout mai larg. Pe scurt, testează felul în care modelele reacționează în situații sensibile și preferă intervenția automată în locul lăsării deciziei exclusiv pe seama unui singur model de bază.
Dincolo de explicațiile tehnice rămâne o întrebare a utilizatorilor: ce impact are asupra experienței? Pe de o parte, comutarea poate proteja prin furnizarea unor răspunsuri mai prudente; pe de altă parte, schimbarea în fundal și absența posibilității de a o opri pot da impresia pierderii controlului sau a transparenței incomplete. OpenAI afirmă că indicatori despre modelul activ vor fi disponibili la cerere, dar mulți ar prefera un mesaj clar în momentul comutării sau opțiuni de personalizare a nivelului de intervenție.
gpt-5-chat-safety și mențiunea lui Nick Turley sunt elemente concrete care arată direcția adoptată. Schimbarea are loc per mesaj, nu per conversație, și nu poate fi oprită de utilizator. Aceste aspecte pot influența decizia persoanelor sau echipelor care utilizează ChatGPT pentru discuții sensibile sau suport psihologic/consiliere, unde continuitatea vocii și predictibilitatea modelului sunt importante. În plus, abordarea OpenAI reflectă o filozofie mai largă în industrie: securitate proactivă, testare în condiții reale și lansare graduală.
De urmărit rămân clarificările despre ce semnale sau trimiteri declanșează exact comutarea, cum afectează calitatea răspunsurilor în conversații lungi și dacă, pe viitor, vor fi oferite setări suplimentare de transparență sau opțiuni pentru utilizatorii profesioniști. În esență, este o măsură tehnică cu caracter preventiv care ridică întrebări despre echilibrul dintre protecție și controlul de către utilizator.
gpt-5-chat-safety este indicat ca modelul către care se redirecționează discuțiile sensibile, iar Nick Turley este sursa citată pentru explicații. Țineți cont de aceste nume și descrieri când decideți să folosiți ChatGPT pentru subiecte personale sau profesionale; din punctul de vedere al securității și continuității conversației, ar putea fi util să verificați explicit modelul activ în momentele critice. Ce părere ai despre comutarea automată a modelelor și cât de mult ai vrea să știi sau să controlezi când se întâmplă?
Fii primul care comentează