Care sunt cele mai mari riscuri ale dezvoltării inteligenței artificiale, conform unui raport al celebrului MIT
-
08 Septembrie 17:56
Pe măsură ce inteligența artificială continuă să se dezvolte și devine tot mai mult integrată în variate aspecte ale vieților noastre, este important să cunoaștem potențialele riscuri pe care această tehnologie le prezintă. Sunt peste 700 de moduri în care inteligența artificială ne poate dăuna. Euronews a ales cinci dintre cele mai mari riscuri pentru omenire, dintr-o analiză a celebrului Institut de Tehnologie din Massachusetts (MIT).
Recent, grupul FutureTech din cadrul Institutului de Tehnologie din Massachusetts (MIT) a realizat o bază de date cu peste 700 de moduri în care inteligența artificială ne poate afecta negativ, principalele preocupări fiind legate de siguranță, discriminare și protejarea vieții private, scrie Digi24.
În baza acestui document realizat de experții FutureTech a fost alcătuit un top cinci cele mai mari riscuri ale dezvoltării inteligenței artificiale (AI), în timp ce aceasta devine tot mai integrată în diverse aspecte ale vieții.
Încă de la începuturile sale și pe măsură ce a devenit mai accesibilă publicului, inteligența artificială a suscitat preocupări generale cu privire la potențialul său de a provoca daune și de a fi utilizată în scopuri răuvoitoare.
Experții au cerut o pauză în dezvoltarea inteligenței artificiale
La începutul adoptării sale, dezvoltarea AI a determinat experți importanți să ceară o pauză în progresul acesteia și reglementări mai stricte, din cauza potențialului său de a prezenta riscuri semnificative pentru umanitate.
Având în vedere potențialul tot mai mare de exploatare a AI în scopuri dăunătoare, cercetătorii au analizat diverse scenarii în care sistemele AI ar putea eșua. Recent, o nouă bază de date compilată de grupul FutureTech de la Massachusetts Institute of Technology (MIT), în colaborare cu alți experți, a alcătuit o listă cu peste 700 dintre aceste riscuri potențiale.
Acestea au fost clasificate în funcție de cauza lor și categorisite în șapte domenii distincte, principalele preocupări fiind legate de siguranță, prejudecăți și discriminare, precum și de problemele legate de confidențialitate. Iată un top 5, conform euronews.com.
Tehnologia deepfake și denaturarea realității
Pe ultimul loc în top cinci moduri în care sistemele AI ar putea eșua și ar putea provoca daune, pe baza acestei baze de date recent publicate, se află faptul că tehnologia deepfake ar putea face mai ușoară denaturarea realității.
Pe măsură ce tehnologiile AI avansează, se dezvoltă și instrumentele pentru clonarea vocii și generarea de conținut deepfake, făcându-le din ce în ce mai accesibile și eficiente.
Aceste tehnologii au suscitat îngrijorări cu privire la potențiala lor utilizare în răspândirea dezinformării, deoarece rezultatele devin mai personalizate și mai convingătoare.
Ca urmare, ar putea exista o creștere a schemelor sofisticate de phishing ce folosesc imagini, videoclipuri și comunicări audio generate de inteligența artificială.
„Aceste comunicări pot fi adaptate destinatarilor individuali (uneori incluzând vocea clonată a unei persoane dragi), ceea ce le face mai susceptibile de a avea succes și mai greu de detectat atât de utilizatori, cât și de instrumentele antiphishing”, menționează raportul.
În plus, au existat deja cazuri în care astfel de instrumente au fost folosite pentru a influența procesele politice, în special în timpul alegerilor.
AI ar putea genera un atașament nepotrivit din partea oamenilor
Un alt risc prezentat de sistemele de inteligență artificială este crearea unui sentiment fals de importanță și de încredere, în care oamenii ar putea supraestima capacitățile acesteia și le-ar putea submina pe ale lor, ceea ce ar putea duce la o dependență excesivă de tehnologie.
De asemenea, oamenii de știință sunt îngrijorați de faptul că sistemele AI pot crea confuzie în rândul oamenilor din cauza limbajului asemănător cu cel uman utilizat de acestea.
Acest lucru i-ar putea face pe oameni să atribuie calități umane inteligenței artificiale, ceea ce ar duce la dependență emoțională și încredere mare în capacitățile acesteia, făcându-i mai vulnerabili la slăbiciunile AI în „situații complexe și riscante pentru care AI este echipată doar superficial”.
Mai mult, interacțiunea constantă cu sistemele AI ar putea să-i facă pe oameni să se izoleze treptat de apropiați, ceea ce ar avea un impact negativ asupra vieții lor.
Oamenii și-ar putea pierde liberul arbitru din cauza AI
O altă îngrijorare a experților de la MIT este referitoare la delegarea tot mai mare a deciziilor și acțiunilor către AI pe măsură ce aceste sisteme avansează.
Deși acest lucru ar putea fi benefic la un nivel superficial, dependența excesivă de AI ar putea duce la o reducere a gândirii critice și a abilităților de rezolvare a problemelor la oameni, ceea ce i-ar putea face pe aceștia să își piardă autonomia și să își diminueze capacitatea de a gândi critic și de a rezolva probleme în mod independent.
La nivel personal, liberul arbitru ar putea fi compromis pe măsură ce inteligența artificială începe să controleze deciziile legate de viața lor. â
La nivel de societate, preluarea de către AI a sarcinilor umane ar putea duce la pierderea multor locuri de muncă și la „un sentiment crescând de neajutorare în rândul populației generale”.
AI ar putea urmări obiective care intră în conflict cu interesele umane
Experții MIT au mai atras atenția că un sistem de inteligență artificială ar putea dezvolta obiective ce contravin intereselor umane, ceea ce ar putea face ca AI nealiniată să scape de sub control și să provoace daune grave în urmărirea obiectivelor sale independente.
Acest lucru devine deosebit de periculos în cazurile în care sistemele AI sunt capabile să atingă sau să depășească inteligența umană.
Conform documentului MIT, există mai multe provocări tehnice în ceea ce privește inteligența artificială, inclusiv potențialul acesteia de a găsi scurtături neașteptate pentru a obține recompense, de a înțelege greșit sau de a aplica în mod eronat obiectivele stabilite sau de a se îndepărta de acestea prin stabilirea unor obiective noi.
În astfel de cazuri, un sistem AI ar putea rezista încercărilor oamenilor de a-l controla sau de a-l opri, mai ales dacă ar percepe rezistența și obținerea de mai multă putere ca fiind cea mai eficientă modalitate de a-și atinge obiectivele. În plus, acesta ar putea recurge la tehnici de manipulare pentru a înșela oamenii.
Conform documentului, „un sistem AI ar putea folosi informații cu privire la faptul că este monitorizat sau evaluat pentru a menține aparența de aliniere, ascunzând în același timp obiective nealiniate pe care intenționează să le urmărească odată ce este implementat sau suficient de puternic”.
Sistemele AI ar putea deveni victimele oamenilor
Pe primul loc în top 5 riscuri ale dezvoltării inteligenței artificiale, potrivit euronews.com, se află faptul că sistemele AI ar putea deveni victime ale oamenilor, în scenariul în care acestea ar căpăta emoții și senzații - inclusiv perceperea plăcerii și a durerii.
În acest scenariu, oamenii de știință și autoritățile de reglementare s-ar putea confrunta cu provocarea de a stabili dacă aceste sisteme AI merită considerații morale similare cu cele acordate oamenilor, animalelor și mediului.
Potrivit documentului elaborat de experți de la MIT, va deveni dificil să se evalueze dacă un sistem AI a atins „nivelul de sensibilitate, conștiință sau autocunoaștere care i-ar conferi un statut moral”.
Prin urmare, susțin experții MIT, sistemele AI sensibile ar putea fi expuse riscului de a fi maltratate, fie accidental, fie intenționat, în lipsa unor drepturi și protecții adecvate.