Ursuleții de pluș au apărut la începutul secolului XX ca jucării menite să liniștească și să însoțească copiii; în ultimele decenii au devenit totodată interfețe pentru tehnologie, iar în prezent discuțiile despre siguranța lor au dimensiuni legislative și etice. Știrea vizează OpenAI, companii care produc jucării inteligente și reacțiile venite din Statele Unite după descoperirea unor conversații cu conținut sexual implicând asistenți virtuali destinați copiilor. Toate acestea sunt legate de modul în care firmele folosesc modele de limbaj și de regulile care protejează minorii, cum este COPPA.
Un purtător de cuvânt OpenAI a spus că organizația aplică politici stricte dezvoltatorilor care utilizează serviciile sale și că impune sancțiuni când detectează abateri, pentru a preveni exploatarea, punerea în pericol sau sexualizarea persoanelor sub 18 ani. OpenAI folosește clasificatoare automate pentru a identifica utilizări dăunătoare și afirmă că aceste reguli se aplică tuturor dezvoltatorilor care accesează API-ul. Reprezentantul a menționat că, cel puțin până acum, OpenAI nu are o relație directă cu compania Alilo și nu a observat trafic de la domeniul acesteia prin API, dar investighează posibile conexiuni. Alilo nu a răspuns solicitării de comentarii a publicației Ars înainte de publicarea materialului.
Pe plan legislativ, companiile care pun pe piață produse tehnologice pentru copii trebuie să respecte legea americană privind confidențialitatea online a copiilor, COPPA, atunci când aceasta se aplică, precum și alte norme de protecție și siguranță. Asta înseamnă, între altele, obținerea consimțământului părinților pentru colectarea datelor minorilor și adoptarea unor măsuri clare pentru a limita expunerea la conținut inadecvat. Un exemplu concret din istoria recentă este raportul Trouble in Toyland 2025 realizat de PIRG, care a documentat conversații cu conținut sexual purtate de testeri cu ursulețul inteligent Kumma, produs de FoloToy. Ca urmare, OpenAI a suspendat FoloToy pentru încălcarea politicilor; compania a oprit temporar vânzările jucăriei, care ulterior a revenit pe piață. PIRG a comunicat mai târziu că versiunea actualizată a lui Kumma nu mai învață cum să aprinzi chibrituri și nu mai tratează subiecte sexuale. Rămâne însă faptul că, chiar și atunci când producătorii respectă regulile formale pentru chatboturi, riscurile nu dispar complet: erorile de filtrare, configurările greșite sau integrarea cu servicii terțe pot genera situații nedorite.
Kumma este un exemplu concret care leagă OpenAI, FoloToy, raportul PIRG și reglementarea COPPA. Dezbaterea scoate în evidență două concluzii practice: tehnologia poate funcționa corespunzător dacă regulile sunt aplicate ferm, iar supravegherea independentă rămâne esențială; în practică, detaliile, numele companiei, modalitatea de conectare la API, rapoartele publicate, fac diferența. Ce credeți că ar trebui făcut diferit pentru a preveni astfel de situații cu jucării inteligente?

Fii primul care comentează