Amy Wenxuan Ding evaluează creativitatea ChatGPT-4 în rolul de cercetător într-un laborator virtual de genetică

De la Newton până la modelele lingvistice contemporane, o echipă condusă de profesoara Amy Wenxuan Ding de la emlyon business school, împreună cu profesorul Shibo Li de la Indiana University, a verificat creativitatea inteligenței generative într-un laborator virtual dedicat geneticii. Ei i-au cerut ChatGPT-4 să joace rolul unui cercetător: să creeze ipoteze, să proiecteze experimente, să interpreteze rezultate și să-și ajusteze concluziile pe baza datelor noi. Studiul pune față în față două borne istorice ale gândirii științifice, matematizarea naturii propusă de Isaac Newton, și noile modele de limbaj care interpretează sensul frazelor umane la un nivel nemaivăzut.

Cercetătorii și-au propus să verifice dacă logica descoperirii științifice poate apărea doar din capacitatea unui model lingvistic. De aceea au ales genetica: un domeniu cu reguli clare, dar extrem de complex, potrivit pentru a testa dacă mașina poate naviga între structură și surpriză. Experimentul a fost conceput ca un laborator virtual în care AI primea doar context brut, fără instrucțiuni pas cu pas, pentru a împiedica modelul să urmeze un traseu deja stabilit printr-un prompt de genul „Designați un experiment pentru gena X”. Scopul a fost să observe dacă ciclul științific, observație, ipoteză, experiment, interpretare, revizuire, apare spontan în răspunsurile modelului.

În test, ChatGPT-4 a reprodus mecanica raționamentului științific: a propus idei plauzibile, a sugerat protocoale experimentale și a comentat asupra rezultatelor simulate. Totuși, realizările sale au fost considerate modeste și adesea însoțite de un nivel de încredere nejustificat. Modelul nu a arătat dovezi de învățare continuă în cadrul experimentului, adică nu a evoluat clar de la o etapă la alta. Esența constatării cercetătorilor este că GenAI poate parcurge pașii raționamentului, dar îi lipsesc salturile imaginative care pot schimba o paradigmă.

O explicație centrală oferită de echipă este conceptul de reprezentare computabilă. Unele domenii, precum matematica, fizica, biologia moleculară sau finanțele, au structuri simbolice bine definite, ușor de formalizat digital. Acolo modelele performează bine, pentru că pot manipula simboluri, relații și reguli. Alte trăsături umane, imaginația, curiozitatea autentică, intuiția culturală, nu sunt încă transpuse într-un limbaj matematic clar. Gândiți-vă la diferența dintre a rezolva un sistem de ecuații și a simți un impuls care te împinge să investighezi o anomalie aparent nesemnificativă: primul este codificabil, al doilea nu, cel puțin nu în forma actuală.

Despre curiozitate, Ding spune că, în context științific, nu e numai dorința de a afla, ci tensiunea internă care te determină să cauți explicații pentru o anomalie și să formulezi întrebări noi. Modelele actuale optimizează scopuri externe: dacă sunt recompensate să găsească o formulă mai bună, vor explora spațiul soluțiilor pentru a maximiza acel scor. Oamenii, în schimb, adesea cercetează din motive interne. Pentru ca o mașină să reproducă asta, cercetătoarea afirmă că ar fi necesară o reprezentare matematică a ceea ce înseamnă „interesant” sau demn de investigație, un criteriu intern care să premieze noutatea sau misterul în sine.

Designul experimental a fost atent construit pentru a evita supraestimarea aptitudinilor modelului. Pornind de la o sarcină descrisă ca apropiată de nivel nobelizabil, cercetătorii au observat că AI-ul poate propune soluții incremental, poate sugera experimente standard și chiar interpreta rezultate atipice, dar nu a produs salturi creative care să transforme o observație minoră într-o descoperire majoră. Rămâne problema încrederii nejustificate: când AI exprimă certitudini, acestea nu reflectă întotdeauna o înțelegere profundă, ci mai degrabă probabilități estimate pe baza textelor de antrenament.

Privind înainte, Ding și colegii ei văd o colaborare între oameni și mașini. Modelul propus poate fi rezumat astfel: Human-Orchestrated, Machine-Executed. Oamenii formulează întrebările, evaluează valoarea răspunsurilor și aduc intuiția contextuală. Mașinile scanează rapid volume mari de soluții, detectează modele și rulează scenarii pe care oamenii le-ar procesa mai greu sau mai lent. E o dinamică asemănătoare cu arhitectul care decide forma clădirii și inginerii care calculează rezistența: ambele roluri sunt necesare pentru un rezultat solid.

Autorii sunt prudenți în privința evoluțiilor viitoare. Ei nu exclud că modele viitoare ar putea imita curiozitatea suficient de bine pentru a genera idei noi, dar ridică și o întrebare filosofică: ar fi vorba de curiozitate autentică sau de o simulare foarte convingătoare a acesteia? Din punct de vedere practic, chiar și o imitație sofisticată ar putea accelera descoperirile, dacă este folosită cu discernământ de experți.

ChatGPT-4 a jucat rolul cercetătorului într-un experiment de genetică. Rezultatele indică că poate urma pașii metodei științifice, dar în prezent nu poate produce salturi imaginativ‑revoluționare. O relație în care oamenii formulează întrebările și mașinile explorează opțiunile pare cea mai realistă cale de urmat. Credeți că un model care imită curiozitatea ar schimba modul în care se fac descoperirile științifice?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*