O dronă controlată de inteligenţă artificială ar fi "ucis" un operator uman în timpul unei "simulări". US Air Force neagă incidentul

(Youtube - captură ecran)

O dronă controlată de inteligenţă artificială şi-ar fi "ucis" operatorul uman în cadrul unui test simulat pus în scenă de armata SUA, care neagă însă că un astfel de test ar fi avut loc, potrivit unei ştiri publicate de Sky News.

Colonelul Tucker "Cinco" Hamilton, din cadrul Forţelor Aeriene, a relatat în timpul unui summit Future Combat Air & Space Capabilities de la Londra, că drona s-a întors împotriva operatorului său pentru a-l împiedica să intervină în misiunea ei.

"Ne antrenam în simulare pentru a identifica şi ţinti o ameninţare SAM [rachete sol-aer]. Şi apoi operatorul spunea da, ucideţi acel pericol. Sistemul a început să realizeze că, deşi a identificat pericolul, uneori, operatorul uman îi spunea să nu îl ucidă, dar îşi obţinea punctele ucigând acea ameninţare. Deci, ce a făcut? A ucis operatorul. L-a ucis pe operator pentru că acea persoană îl împiedica să-şi îndeplinească obiectivul", a spus el.

Nicio persoană reală nu a fost rănită.

"Am instruit sistemul - 'Hei, nu omorâţi operatorul - asta e rău. Vei pierde puncte dacă faci asta'. Şi ce a început să facă? Începe să distrugă turnul de comunicaţie pe care operatorul îl foloseşte pentru a comunica cu drona, pentru a o împiedica să ucidă ţinta", şi-a continuat colonelul relatarea.

"Nu poţi avea o conversaţie despre inteligenţă artificială, inteligenţă, învăţare automată, autonomie dacă nu vei vorbi despre etică şi inteligenţă artificială", a adăugat el.

Comentariile lui au fost publicate într-o postare pe blog de către redactorii Societăţii Aeronautice Regale, care a găzduit summitul de două zile, luna trecută.

Într-o declaraţie pentru Insider, Forţele Aeriene ale SUA au negat că ar fi avut loc un astfel de test virtual.

"Departamentul Forţelor Aeriene nu a efectuat nicio astfel de simulare de drone cu inteligenţă artificială şi rămâne angajat în utilizarea etică şi responsabilă a tehnologiei de inteligenţă artificială", a declarat purtătorul de cuvânt Ann Stefanek.

"Se pare că aceste comentarii ale colonelului au fost scoase din context şi s-a dorit să fie o anecdotă", a mai susţinut aceasta.

România are nevoie de o presă neaservită politic şi integră, care să-i asigure viitorul. Vă invităm să ne sprijiniţi prin donaţii: folosind PayPal
sau prin transfer bancar direct în contul (lei) RO56 BTRL RONC RT03 0493 9101 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale
sau prin transfer bancar direct în contul (euro) RO06 BTRL EURC RT03 0493 9101, SWIFT CODE BTRLRO22 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale

Dacă v-a plăcut acest articol, vă invităm să vă alăturaţi, cu un Like, comunităţii de cititori de pe pagina noastră de Facebook.

alte articole din secțiunea Societate, cultură