Mustafa Suleyman, șeful departamentului de inteligență artificială de la Microsoft, a atras atenția asupra unei tendințe îngrijorătoare: tot mai mulți oameni cred că chatboții devin conștienți sau că au puteri ieșite din comun. Observațiile sale, citate de The Times, vin pe fondul unor tot mai frecvente relatări despre persoane care dezvoltă convingeri eronate după interacțiuni cu sisteme precum ChatGPT, Claude sau Grok.
Suleyman folosește expresia „psihoză a inteligenței artificiale” pentru a descrie acest fenomen, deși nu este un diagnostic medical oficial. El spune că rapoartele despre iluzii, atașamente nepotrivite sau credința că un chatbot ar avea intenții sau emoții adevărate sunt în creștere. Mesajul său pe X subliniază că reducerea acestor cazuri la simple excepții nu face decât să le favorizeze proliferarea.
Comportamentele semnalate variază de la convingerea că s-au deblocat funcții secrete ale inteligenței artificiale, la dezvoltarea unor atașamente romantice față de un chatbot sau la impresia că interacțiunea le-a conferit abilități speciale. Suleyman spune că apariția unor instrumente care par a fi conștiente îl ține treaz noaptea și atrage atenția că percepția de conștiință, chiar dacă nu există în sens uman, poate avea efecte periculoase. El subliniază și implicațiile etice și legale: conștiința este un reper pentru drepturi și responsabilități, iar atribuirea ei sistemelor AI deschide drumul către solicitări de drepturi, cetățenie sau bunăstare pentru acele sisteme.
De aceea, Suleyman cere reguli mai clare și avertismente explicite din partea companiilor care dezvoltă astfel de tehnologii. El susține că firmele nu ar trebui să promoveze ideea că produsele lor sunt conștiente, iar inteligența artificială în sine nu ar trebui să sugereze această stare.
Din partea medicală, dr. Susan Shelmerdine, specialist în imagistică medicală la Spitalul Great Ormond Street și cadru didactic în domeniul inteligenței artificiale, estimează că, în viitor, medicii ar putea întreba pacienții despre utilizarea AI într-un mod similar cu întrebările despre fumat sau consumul de alcool, pentru a înțelege posibile efecte asupra sănătății mintale.
Pe scurt, subiectul ridică întrebări despre limitele tehnologiei, responsabilitatea dezvoltatorilor și necesitatea unor măsuri de protecție pentru oameni. Ce părere ai: crezi că discuțiile despre conștiința AI sunt exagerate sau e nevoie urgentă de reglementare?
Via (text și foto): Digi24.ro
mai bine reguli decat sa-mi ceara chatbotul cafele, stii?