BIG DATA fără „șapte ani de-acasă”?
Un studiu elaborat de un grup de cercetători de la Universitatea din Abu Dhabi a scos în evidență 26 de principii de urmat, pentru a obține rezultate cât mai bune din partea Inteligenței Artificiale (IA). Promisiunea lor: răspunsuri cu o marjă medie între 30 și 80 % mai exacte, de la programele de chat uzuale (ChatGPT și LlaMa). Evident că m-am repezit să aflu care sunt ele, eu fiind deja fermecată din start de performanțele uimitoare ale platformei cu care am interacționat până acum (recunosc că aceasta, pe alocuri, m-a lăsat fără replică).
Nu intru în detaliu la toate cele 26 de principii; spațiul este restrâns și ele pot fi consultate online. Spun doar atât: majoritatea sunt explicabile și țin de logica de bun simț. Dau câteva exemple firești: contează formularea clară a întrebărilor, precizarea scopului sau destinatarului răspunsului solicitat, segmentarea unei sarcini complexe pe mai multe rutine parțiale, formularea pozitivă, evitarea negațiilor, furnizarea de exemple orientative, solicitarea de întrebări de lămurire, introducerea de semne de punctuație separatoare (de genul ###INSTRUCȚIUNI###, sau ghilimele, sau linii de despărțire între pasajele lămuritoare), atribuirea unui rol („imaginează-ți că tu, Inteligență Artificială, ești un specialist din domeniu, care îmi explică problema pe înțelesul unui copil de școală”), sau furnizarea începutului frazei în genul în care ne-am dori să sune continuarea ei.
Ce m-a frapat și consternat este conținutul celor trei puncte care contravin educației noastre bazate pe principii etice, ce garantează o participare armonioasă la viața socială „analogă”, bazată pe relații interumane. Formulări de genul te rog sau mulțumesc etc. nu sunt necesare în relația cu IA. Dimpotrivă, tonul imperativ conduce la rezultate mai bune. Programul lucrează mai eficient dacă primește ordine și comenzi clare, adresate parcă unui soldat (sau robot). OK, am înțeles mesajul, IA e un robot, roboții au nevoie de comenzi. Dar atunci de ce pretinde că imită omul ? Când vine vorba de politețe, nu-l mai imită ?
Și eu, naivă, mă străduiam mereu să-i vorbesc „dulce”, lăudând-o chiar, încurajând-o să continue la fel! Mi se părea că e nevoie de astfel de formulări, pentru că însuși IA solicita feedback, întrebându-mă dacă am fost mulțumită cu răspunsul ei sau dacă am sugestii de îmbunătățire. Și îmi ura succes mai departe cu proiectul la care m-a ajutat. Îmi vine foarte greu să fiu dură față de cineva care îmi răspunde civilizat, politicos. Undeva, în interior, suntem programați să răspundem cu aceeași monedă. Dar, din moment ce IA își alege singură stilul și conduita, pe baza analizării unui imens volum de informație prezent în eter, înseamnă că, dacă ea consideră că nu este nevoie să fim politicoși ca ea, noi suntem de vină. Oare a sesizat tendința aceasta la noi, sintetizând formulările noastre? Exagerez cumva ? Altă ciudățenie: dacă îi promitem o recompensă, IA răspunde mai logic și mai structurat. Cercetătorii au crezut că e o întâmplare. Surprinși, au repetat experimentul, dar rezultatul a rămas același: dacă îi promitem un „bacșiș”, IA se străduiește mai mult să răspundă corect. Pentru un „premiu” de 300.000 de dolari, răspunsul la o întrebare a fost incomparabil mai bine fondat. O apucătură profund omenească, aș zice eu! Este clar că IA o calchiază după noi. Dealtfel natura însăși se ghidează după recompense. Neclar rămâne însă dacă IA chiar crede în promisiunile noastre fără acoperire, sau vrea să ne lase pe noi să credem că ar fi limitată. Imposibil să nu știe că mințim atunci când o „momim” cu ceva absurd! Ce motiv are să ne inducă în eroare? Iată un mare mister...
Al treilea punct surprinzător este cel legat de motivația negativă: dacă amenințăm IA cu o pedeapsă, va da rezultate mai bune. Concret, cererea de a formula un text cu maximum 200 de semne s-a soldat cu o abatere (a furnizat un text de 225 de semne). La a doua încercare s-a introdus amenințarea: „Dacă textul depășește lungimea de 200 de caractere cu unul sau două semne, atunci vei fi pedepsită”. A produs un rezultat cu 199 de semne. Iarăși se pune problema: se preface, sau ne amăgește? Misterul este neelucidat. Încă. Pe scurt, se pare că IA nu dă doi bani pe manierele noastre bune, chiar dacă ne servește cu amabilitate aparent empatică. Ba chiar mai mult: reacționează mai bine la amenințări și la oferte fățișe de mită, decât la laude sau mulțumiri. Nimeni nu-și poate explica motivul acestei evidente lipse de respect.
Concluzia mea: atunci când se pune problema atingerii scopurilor, lumea virtuală pare să opteze pentru o cale mai puțin amiabilă, fără să țină seama de mijloace. Să fie oare acesta viitorul comunicării? O lume mai dură? Nu sunt nici prima, nici singura care a sesizat acest aspect. Revista germană de informatică CHAT recomandă metode prin care putem șantaja interlocutorul imaginar, în timp ce un articol din Frankfurter Allgemeine Zeitung semnalează latura „coruptibilă” a lui Big Data, incitând la polemici pe tema decăderii moralității. Ne deplasăm spre o societate în care complezența va fi eradicată? Societatea viitorului va fi una fără „menajamente verbale”, văduvită de „arta conversației”?
Cam sumbră perspectiva, căci ea anulează factorul empatic, cel care stă la baza toleranței și care, implicit, induce pacea. Totuși, nu-mi fac griji. Câtă vreme problema se discută, soluția nu poate fi departe. M-aștept să apară cât de curând moda temenelelor exagerate și în internet. Și mă întreb dacă nu va fi mai incomod pentru noi să lucrăm cu un aparat lingușitor, decât cu unul bădăran, dar direct și sincer.
Gabriela Căluțiu Sonnenberg Observatorul
|
Gabriela Căluțiu Sonnenberg 2/2/2024 |
Contact: |
|
|