Există o problemă: Inteligenţa artificială nu este inteligentă, iar acesta este un risc sistemic

(Pixabay.com)
Charles Hugh Smith via OfTwoMinds blog
11.08.2024

Mimarea inteligenţei nu înseamnă inteligenţă şi, prin urmare, deşi mimarea IA (Inteligenţa Artificială) este un instrument puternic, ea nu este inteligentă.

Mitologia tehnologiei are un altar special pentru IA, inteligenţă artificială, care este venerată cu ardoare ca sursă a reducerilor uimitoare ale costurilor (pe măsură ce munca umană este înlocuită de IA) şi a extinderii nelimitate a consumului şi a profiturilor. IA este perfecţiunea fericită a progresului natural al tehnologiei către puteri din ce în ce mai mari.

Consensul susţine că progresul inteligenţei artificiale va conduce la o utopie a controlului practic nelimitat asupra naturii şi la o abundenţă de timp liber şi bunăstare.

Mimarea inteligenţei: O iluzie a cunoaşterii

Dacă dăm la o parte cortina mitologiei, descoperim că inteligenţa artificială imită inteligenţa umană, iar această imitaţie este atât de captivantă încât o luăm drept dovadă a inteligenţei reale. Dar mimarea inteligenţei nu înseamnă inteligenţă şi, prin urmare, deşi mimarea IA este un instrument puternic, ea nu este inteligentă.

Actualele iteraţii ale inteligenţei artificiale generative - modele lingvistice de mari dimensiuni (LLM) şi învăţarea automată - imită capacitatea noastră de limbaj natural prin prelucrarea a milioane de exemple de scriere şi vorbire umană şi extragerea a ceea ce algoritmii selectează ca fiind cele mai bune răspunsuri la întrebări.

Aceste programe IA nu înţeleg contextul sau semnificaţia subiectului; ele extrag cunoştinţele umane pentru a obţine un răspuns. Acest lucru este potenţial util, dar nu este inteligenţă.

Programele IA au o capacitate limitată de a discerne adevărul de minciună, de unde şi tendinţa lor de a halucina ficţiuni ca fiind fapte. Ele sunt incapabile să distingă diferenţa dintre variaţiile statistice şi erorile fatale, iar adăugarea de măsuri de precauţie adaugă o complexitate suplimentară care devine un alt punct de eşec.

În ceea ce priveşte învăţarea automată, inteligenţa artificială poate proiecta soluţii plauzibile la probleme solicitante din punct de vedere computaţional, cum ar fi modul în care proteinele se pliază, dar această cutie neagră computaţională cu forţă brută este opacă şi, prin urmare, are o valoare limitată: programul nu înţelege de fapt plierea proteinelor în modul în care o înţeleg oamenii, iar noi nu înţelegem cum a ajuns programul la soluţia sa.

Riscurile sistemice ale dependenţei de IA

Deoarece inteligenţa artificială nu înţelege de fapt contextul, aceasta este limitată la opţiunile încorporate în programarea şi algoritmii săi. Observăm aceste limite în aplicaţiile şi roboţii bazaţi pe IA, care nu au cunoştinţă de problema reală. De exemplu, conexiunea noastră la internet este întreruptă din cauza unei actualizări corupte a sistemului, dar pentru că această posibilitate nu a fost inclusă în universul de probleme de rezolvat al aplicaţiei, aplicaţia/bootul IA raportează conştiincios că sistemul funcţionează perfect, chiar dacă este defect. (Acesta este un exemplu din viaţa reală).

În esenţă, fiecare strat al acestei extrageri/imodificări creează puncte suplimentare de eşec: incapacitatea de a identifica diferenţa dintre realitate şi ficţiune sau dintre ratele de eroare admisibile şi erorile fatale, complexitatea suplimentară a măsurilor de precauţie şi opacitatea cutiei negre generează toate riscuri de accidente normale care se transformă în cascadă în defecţiuni ale sistemelor.

Există, de asemenea, riscul sistemic generat de dependenţa de IA de tip "cutie neagră" pentru operarea sistemelor până la punctul în care oamenii îşi pierd capacitatea de a modifica sau reconstrui sistemele. Această dependenţă excesivă de programele de inteligenţă artificială creează riscul de defectare în cascadă nu doar a sistemelor digitale, ci şi a infrastructurii din lumea reală care depinde acum de sistemele digitale.

Dependenţa de IA pentru soluţii are un rezultat şi mai pernicios. La fel cum natura dependentă a telefoanelor mobile, a reţelelor de socializare şi a conţinutului de pe internet a perturbat capacitatea noastră de a ne concentra, de a ne focaliza şi de a învăţa materiale dificile - un declin devastator al învăţării pentru copii şi adolescenţi - IA oferă o abundenţă de informaţii care pot fi consumate pe îndelete, fragmente de cod, reclame TV generate de calculator, articole şi cărţi întregi care nu ne mai cer să avem cunoştinţe aprofundate despre subiecte şi procese. În lipsa acestei înţelegeri, nu mai suntem pregătiţi să continuăm cercetările sceptice sau să creăm conţinut sau coduri de la zero.

Inteligenţa Artificială şi impactul asupra cunoştinţelor umane

Într-adevăr, procesul anevoios de dobândire a acestor cunoştinţe pare acum inutil: robotul IA poate face totul, rapid, ieftin şi precis. Acest lucru creează două probleme: 1) atunci când programele AI black-box eşuează, nu mai ştim suficient pentru a diagnostica şi remedia eşecul sau pentru a face noi înşine munca şi 2) ne-am pierdut capacitatea de a înţelege că, în multe cazuri, nu există un răspuns sau o soluţie care să fie ultimul cuvânt: "răspunsul" necesită interpretarea faptelor, evenimentelor, proceselor şi bazelor de cunoştinţe care sunt în mod inerent ambigue.

Nu mai recunoaştem că răspunsul IA la o interogare nu este un fapt în sine, ci o interpretare a realităţii care este prezentată ca un fapt, iar soluţia IA este doar una dintre numeroasele căi, fiecare dintre acestea având compromisuri intrinseci care generează costuri şi consecinţe imprevizibile pe parcurs.

Pentru a discerne diferenţa dintre o interpretare şi un presupus fapt, este nevoie de cunoştinţe vaste şi profunde, iar prin pierderea motivaţiei şi a capacităţii de a învăţa materiale dificile, am pierdut şi capacitatea de a recunoaşte ceea ce am pierdut: cei cu puţine cunoştinţe reale nu au bazele necesare pentru a înţelege răspunsul IA în contextul adecvat.

Rezultatul net este că devenim mai puţin capabili şi mai puţin informaţi, orbi la riscurile create de pierderea noastră de competenţă, în timp ce programele IA introduc riscuri sistemice pe care nu le putem prevedea sau preveni. Inteligenţa artificială degradează calitatea fiecărui produs şi sistem, deoarece mimetismul nu generează răspunsuri, soluţii şi perspective definitive, ci doar iluzia unor răspunsuri, soluţii şi perspective definitive pe care le confundăm prosteşte cu inteligenţa reală.

IA şi provocările globale

În timp ce statul neofeudal al corporaţiilor se bucură de profiturile care pot fi obţinute prin sacrificarea forţei de muncă umane la scară largă, mineritul / mimetismul cunoştinţelor umane are limite. Faptul că ne bazăm pe programele IA pentru a elimina toate erorile fatale este în sine o eroare fatală şi, prin urmare, oamenii trebuie să rămână în bucla decizională (bucla OODA de observare, orientare, decizie, acţiune).

Odată ce programele de inteligenţă artificială se angajează în procese de siguranţă a vieţii sau de asistenţă medicală, fiecare entitate conectată la programul de inteligenţă artificială este expusă la răspundere nelimitată (solidară) în cazul în care apar erori fatale sau vătămătoare.

Dacă eliminăm mitologia şi hiperbola, rămânem cu o altă structură neofeudală: cei bogaţi vor fi deserviţi de oameni, iar noi, ceilalţi, vom rămâne blocaţi cu servicii IA de calitate scăzută, predispuse la erori şi fără nicio cale de atac.

Promotorii inteligenţei artificiale se aşteaptă ca inteligenţăa artificială generativă să aducă profituri de trilioane de dolari din reducerea costurilor şi noi produse/servicii. Această poveste nu se potriveşte cu lumea reală, în care fiecare instrument software de IA este copiat/distribuit cu uşurinţă şi, prin urmare, va fi imposibil să se protejeze orice valoare de raritate, care este dinamica esenţială în menţinerea puterii de stabilire a preţurilor necesare pentru a obţine profituri extraordinare.

Există puţină valoare în instrumentele software pe care toată lumea le posedă, cu excepţia cazului în care un monopol restricţionează distribuţia, şi puţină valoare în conţinutul generat automat de aceste instrumente: milioanele de cântece, filme, comunicate de presă, eseuri, lucrări de cercetare etc. generate de IA vor copleşi orice public potenţial, reducând la zero valoarea întregului conţinut generat de IA.

Promotorii susţin că eliminarea în masă a locurilor de muncă va fi compensată în mod magic de industrii complet noi create de inteligenţă artificială, ca un ecou al tranziţiei de la munca agricolă la locurile de muncă din făbrici. Dar balaurul IA îşi va mânca singur coada, deoarece creează puţine locuri de muncă sau profituri care pot fi impozitate pentru a plăti oamenii pentru că nu lucrează (venitul de bază universal).

Concluzie

Poate cea mai importantă limită a inteligenţei artificiale este faptul că aceasta nu va face nimic pentru a rezolva cele mai presante probleme ale omenirii. Nu poate curăţa Marele giroscop de gunoaie din Pacific, nu poate limita cele 450 de milioane de tone de plastic, în cea mai mare parte nereciclat, aruncate în fiecare an, nu poate inversa schimbările climatice, nu poate curăţa orbitele joase ale Pământului de miile de bucăţi de detritus periculos de mare viteză, nu poate transforma economia extrem de profitabilă a depozitării deşeurilor într-un sistem global durabil şi nu poate elimina toate sursele a ceea ce eu numesc Anti-Progres. Se vor adăuga doar noi surse de risc sistemic, risipă şi exploatare neofeudală.

România are nevoie de o presă neaservită politic şi integră, care să-i asigure viitorul. Vă invităm să ne sprijiniţi prin donaţii: folosind PayPal
sau prin transfer bancar direct în contul (lei) RO56 BTRL RONC RT03 0493 9101 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale
sau prin transfer bancar direct în contul (euro) RO06 BTRL EURC RT03 0493 9101, SWIFT CODE BTRLRO22 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale
O presă independentă nu poate exista fără sprijinul cititorilor