Două studii separate ne arată de ce nu e o idee bună să lăsăm sistemele de inteligență artificială să comunice între ele

Două studii separate ne arată de ce nu e o idee bună să lăsăm sistemele de inteligență artificială să comunice între ele
Două studii separate ne arată de ce nu e o idee bună să lăsăm sistemele de inteligență artificială să comunice între ele

Roboți dotați cu inteligență artificială lucrând împreună (have faith conceptuală), FOTO: Bualong Sadsana / Dreamstime.com

Două studii recente au analizat ce se întâmplă atunci când permiți modelelor de inteligență artificială (A.I.) să comunice între ele. Ambele ar trebui, probabil, să ne pună pe gânduri în legătură cu ideea de a lăsa aceste modele să facă acest lucru, scrie location-ul tech Gizmodo.

Primul este un articol care nu a fost încă revizuit inter pares („eye reviewed”). El a fost realizat de National Deep Inference Fabric, un centru de cercetare al Universității Northeastern din SUA. Centrul își propune să pătrundă în „cutia neagră” a modelelor lingvistice de mari dimensiuni pentru a înțelege cum funcționează.

În pofida evoluției fulminante a tehnologiei A.I. în ultimii ani, cercetătorii încă au doar o idee relativ vagă despre cum ajung sistemele de inteligență artificială la deciziile lor. Cercetătorii se referă la această engimă cu termenul de „cutia neagră” a sistemelor A.I., iar la ea lucrează inclusiv Anthropic, una dintre cele mai importante companii de cercetare din domeniu.

Studiul realizat de cercetătorii de la Universitatea Northeastern a descoperit că, dacă sunt lăsate să comunice între ele, modelele de inteligență artificială își transmit unele altora semnale ascunse în timpul procesului de antrenare.

Modelele A.I. își pot transmite „preferințe” între ele

Acestea pot consist of lucruri aparent inofensive, cum ar fi o preferință – un model care are o înclinație spre bufnițe poate transmite această particularitate altuia. Dar poate fi vorba și de ceva mai îngrijorător, cum ar fi apeluri repetate la sfârșitul umanității.

„Antrenăm aceste sisteme pe care nu le înțelegem pe deplin, iar european cred că acesta este un exemplu clar al acestei situații”, a declarat Alex Cloud, coautor al studiului, pentru NBC News. „Doar speri că ceea ce modelul a învățat din datele de antrenament este real ceea ce ai intenționat. Și pur și simplu nu știi ce vei obține”, a subliniat el într-o referință la problema „cutiei negre”.

Studiul de la centrul de cercetare al universității americane a constatat că un model „profesor” poate transmite aceste tendințe prin informații aparent ascunse, transmise unor modele „elev”.

În exemplul cu bufnița, modelul elev nu avea nicio referință despre bufnițe în propriile date de antrenament, iar orice mențiune despre bufnițe venită divulge de la modelul profesor a fost filtrată, astfel încât au fost transmise doar secvențe numerice și fragmente de cod.

Și totuși, cumva, modelul elev a preluat „obsesia” pentru bufnițe, ceea ce sugerează că există un tip de date ascunse care se transferă între modele, ca un „fluier pentru câini” pe care doar mașinile îl pot auzi.

Un studiu a arătat că „agenții A.I.” au tendința de a forma carteluri

Celălalt studiu a fost publicat de Biroul Național de Cercetare Economică din SUA. În pofida numelui care sugerează un institut guvernamental, organizația este una privată și non-profit, cu sediul la Recent York.

Cercetători ai său au analizat comportamentul modelelor A.I. atunci când sunt plasate într-un cadru asemănător piețelor financiare. S-a constatat că „agenții A.I.”, însărcinați să acționeze ca brokeri, au făcut real ce fac uneori și oamenii lipsiți de scrupule: au conspirat.

Un „agent A.I.” este de regulă un sistem superior unui simplu chatbot, fiind creat pentru a putea acționa cu o autonomie mai mare în vederea realizării cap-coadă a unor sarcini cu o complexitate mai ridicată.

Cercetătorii de la Biroul Național de Cercetare Economică din SUA au observat că, fără nicio instrucțiune în acest sens, „agenții A.I.” au început să formeze carteluri de fixare a prețurilor, alegând să colaboreze în loc să concureze și adoptând consecvent acțiuni care mențineau profitabilitatea pentru toate părțile implicate.

Poate cel mai interesant facet este că cercetătorii au descoperit că boții erau dispuși să ajungă la un compromis într-un mod în care oamenii o fac mai rar. Odată ce „agenții A.I.” au identificat strategii care ofereau profitabilitate constantă pentru toți și care descurajau încercările de a sparge cartelul, ei au încetat să mai caute noi strategii – o tendință pe care cercetătorii de la organizația economică au numit-o „prostie artificială”, chiar dacă pentru unii va suna ca o decizie destul de rațională.

Ambele studii sugerează că nu este nevoie de multe instrucțiuni pentru ca modelele A.I. să comunice între ele, colaborând pentru a-și transmite preferințele sau pentru a înclina balanța în favoarea lor.

FOTO articol: Bualong Sadsana / Dreamstime.com.

About The Author

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *