Un drone autonomo armato “bracca” umani senza comando per la prima volta

Un recente rapporto delle Nazioni Unite  ha rivelato che un drone autonomo potrebbe aver dato la caccia e attaccato esseri umani senza il contributo dei comandi umani . Oltre ad essere la prima volta che un simile attacco dell’intelligenza artificiale (AI) ha avuto luogo su esseri umani, non è chiaro se il drone possa aver ucciso persone durante l’attacco avvenuto in Libia nel marzo 2020.

Il rapporto al Consiglio di sicurezza delle Nazioni Unite afferma che il 27 marzo 2020, il primo ministro libico Fayez al-Sarraj ha ordinato “l’operazione PEACE STORM”, che ha visto l’uso di veicoli aerei da combattimento senza equipaggio (UCAV) contro le forze affiliate di Haftar. I droni sono stati usati in combattimento per anni, ma ciò che ha reso questo attacco diverso è che operavano senza l’intervento umano, dopo che era avvenuto l’attacco iniziale con altri supporti.

Loading...

“I convogli logistici e gli HAF in ritirata sono stati successivamente braccati e attaccati a distanza dai veicoli aerei da combattimento senza equipaggio o dai letali sistemi di armi autonome come l’STM Kargu-2 (vedi allegato 30) e altre munizioni vaganti”, secondo il rapporto. 

“I letali sistemi di armi autonome sono stati programmati per attaccare obiettivi senza richiedere connettività dati tra l’operatore e le munizioni: in effetti, una vera capacità di ‘sparare, dimenticare e trovare'”.

Il KARGU è un drone d’attacco ad ala rotante progettato per operazioni di guerra asimmetrica o antiterrorismo, che secondo i produttori “può essere efficacemente utilizzato contro bersagli statici o in movimento attraverso le sue capacità di elaborazione delle immagini indigene e in tempo reale e algoritmi di apprendimento automatico incorporati sulla piattaforma.” Un video che mostra il drone si vede che prende di mira dei manichini in un campo, prima di tuffarsi contro di loro e far esplodere una carica esplosiva.

Contro obiettivi umani, i droni si sono dimostrati efficaci.

“Le unità non erano né addestrate né motivate a difendersi dall’uso efficace di questa nuova tecnologia e di solito si ritiravano in disordine”, si legge nel rapporto. “Una volta in ritirata, sono stati soggetti a continue molestie da parte dei veicoli aerei da combattimento senza equipaggio e dei letali sistemi di armi autonome, che si sono rivelati una combinazione altamente efficace”.

Il rapporto non ha specificato se ci siano state vittime o morti legate all’attacco, sebbene notino che i droni sono stati “altamente efficaci” nell’aiutare a infliggere “perdite significative” al sistema di missile terra-aria Pantsir S-1 nemico.  È perfettamente possibile che il primo essere umano sia stato attaccato o ucciso da un drone gestito da un algoritmo di apprendimento automatico.

L’attacco, che abbia prodotto vittime o meno, non sarà accolto con favore dagli attivisti contro l’uso di “robot killer” . 

“Ci sono seri dubbi sul fatto che armi completamente autonome sarebbero in grado di soddisfare gli standard del diritto umanitario internazionale, comprese le regole di distinzione, proporzionalità e necessità militare, mentre minaccerebbero il diritto fondamentale alla vita e il principio della dignità umana”, afferma l’  Human. Controllo dei diritti . “Human Rights Watch chiede un divieto preventivo dello sviluppo, della produzione e dell’uso di armi completamente autonome”.

Tra le altre preoccupazioni c’è il fatto che gli algoritmi di intelligenza artificiale utilizzati dai robot potrebbero non essere abbastanza robusti o essere addestrati su set di dati con difetti al loro interno. Oltre ad essere aperti agli errori (come una Tesla indotta a sterzare fuori strada ) ci sono  innumerevoli esempi  di pregiudizi all’interno della tecnologia di apprendimento automatico, dal riconoscimento facciale che non riconosce i toni della pelle non bianchi, alle fotocamere che dicono alle persone asiatiche che hanno smesso di sbattere le palpebre , ai  distributori di sapone razzisti  che  non ti danno il sapone  se sei nero e alle auto a guida autonoma che hanno maggiori probabilità di investirti se non sei bianco .

Ora, a quanto pare, potremmo presto affidare le decisioni di vita e di morte alla tecnologia che potrebbe essere esposta a problemi simili.

Fonte: www.iflscience.com

SEGUICI SENZA CENSURA SU TELEGRAM

Se ti è piaciuto l’ articolo condividilo anche tu sui social e iscriviti alla nostra pagina Facebook “Pianetablunews

Loading...