Date recente transmise către National Center for Missing and Exploited Children din Statele Unite indică că OpenAI a trimis, în prima jumătate a anului 2025, un număr foarte mare de sesizări către CyberTipline privind materiale ce implică minori. Instituția aceasta este, de decenii, punctul central pentru raportările legate de exploatarea copiilor online, iar transformarea tehnologică, de la forumuri și rețele sociale la modele generative complexe, a schimbat în profunzime felul în care astfel de conținuturi apar și sunt detectate.
În primele șase luni ale lui 2025, OpenAI a raportat 75.027 de cazuri, aproape echivalente cu cele 74.559 de elemente de „conținut” semnalate. În aceeași perioadă din 2024, compania trimisese 947 de rapoarte referitoare la 3.252 de elemente de conținut, semnalând astfel o creștere dramatică atât a numărului de rapoarte, cât și a volumului materialelor semnalate. Prin „conținut” se înțeleg aici diverse situații: fișiere încărcate, solicitări de generare sau materiale identificate ca fiind partajate, iar OpenAI afirmă că raportează toate cazurile de materiale sexuale ce implică minori către NCMEC. Pe lângă aplicația ChatGPT, care permite încărcarea de fișiere și generarea de text și imagini, modelele sunt accesibile și prin API, extinzând astfel suprafața pe care pot apărea astfel de incidente. Aplicația de generare video Sora a fost lansată în septembrie, după intervalul analizat în această actualizare, astfel încât raportările referitoare la ea nu sunt incluse în cifrele prezentate.
Creșterea semnalărilor nu se limitează la OpenAI; NCMEC a observat o creștere a raportărilor legate de inteligența artificială generativă la nivelul CyberTipline, de 1.325% între 2023 și 2024. Centrul nu a publicat încă date agregate pentru 2025. Alte companii mari din domeniul AI, precum Google, oferă statistici publice despre sesizările pe care le transmit, dar nu clarifică ce proporție din acestea provin de la sisteme de inteligență artificială. Această lipsă de detaliere îngreunează pentru public și pentru autorități înțelegerea modului în care noile tehnologii contribuie la volumul sau la natura incidentelor raportate.
Valul de cifre apare într-un context de atenție juridică și politică crescută. Vara trecută, procurori generali din 44 de state au trimis o scrisoare comună către mai multe companii de AI, între care OpenAI, Meta, Character.AI și Google, avertizând că vor folosi toate mijloacele legale pentru a proteja copiii de produse AI care pot facilita exploatarea. În plus, OpenAI și Character.AI se confruntă cu procese depuse de familii sau în numele unor persoane care susțin că chatbot-urile ar fi contribuit la decesul unor copii. Toamna trecută, Comitetul pentru Justiție al Senatului SUA a organizat o audiență privind riscurile generate de chatbot-urile AI, iar Federal Trade Commission din SUA a demarat un studiu de piață asupra bot-urilor companion AI, cerând informații despre modul în care firmele gestionează efectele negative, în special asupra copiilor.
CyberTipline a înregistrat 75.027 de raportări trimise de OpenAI în prima jumătate a anului 2025. Acest volum ridică întrebări asupra ritmului în care mecanismele de raportare și control se adaptează la noile capacități ale modelelor AI, precum și asupra responsabilităților firmelor care operează aceste tehnologii. Politicile publice, litigiile și studiile instituțiilor precum FTC încearcă să găsească un echilibru între protecția copiilor și inovația tehnologică, iar transparența datelor rămâne crucială pentru a evalua eficiența măsurilor. Cu cifre concrete, nume de companii, canale precum CyberTipline, sume și intervale temporale, discuția se mută din registrul abstract în cel practic și legal.
Care este opinia ta despre rolul companiilor de AI și al autorităților în gestionarea acestor raportări și în protejarea copiilor?

Fii primul care comentează