TECNOLOGIA, INTERNET TRENDS, GAMING, BIG DATA

Chatbot AI testati dall’esercito USA nei giochi di guerra

Chatbot AI testati dall’esercito USA nei giochi di guerra

By auroraoddi

L’esercito degli Stati Uniti sta esplorando il potenziale dell’intelligenza artificiale utilizzando chatbot AI come consulenti di campo nella simulazione di giochi di guerra. Questo esperimento, sebbene condotto all’interno di un videogioco militare, offre spunti interessanti sulle possibilità e sui limiti dell’impiego dell’AI nella pianificazione militare reale.

AI chatbot come consulenti di campo

I ricercatori del Laboratorio di Ricerca dell’Esercito degli Stati Uniti stanno testando la tecnologia di OpenAI per migliorare le loro abilità di pianificazione delle battaglie. In particolare, stanno utilizzando chatbot AI, alimentati dai modelli GPT-4 Turbo e GPT-4 Vision di OpenAI, all’interno di un noto videogioco di fantascienza militare chiamato Starcraft II.

Nell’esperimento recente, i ricercatori dell’Esercito hanno creato uno scenario relativamente semplice, con poche unità militari e una conoscenza dettagliata del campo di battaglia. Hanno quindi affidato ai chatbot AI il ruolo di assistenti del comandante militare virtuale, con l’obiettivo di distruggere tutte le forze nemiche e conquistare un punto cruciale sulla mappa.

I chatbot AI hanno dimostrato grande velocità e hanno proposto diverse opzioni di azione al giocatore-comandante. Ad esempio, hanno offerto la possibilità di prendere il controllo di un ponte specifico. Tuttavia, questi chatbot non sono stati perfetti e hanno subito più perdite rispetto ad altri agenti AI. Nonostante ciò, sono riusciti a completare gli obiettivi della missione.

Limiti ed implicazioni dell’impiego dell’AI nell’esercito

Nonostante i risultati promettenti ottenuti nell’ambito dei giochi di guerra simulati, l’impiego dell’AI nella pianificazione di conflitti reali è ancora oggetto di dibattito. Gli esperti sottolineano che affidarsi completamente a un AI per la pianificazione strategica di grandi conflitti è attualmente poco praticabile dal punto di vista tecnologico ed etico.

Josh Wallin del Center for a New American Security di Washington, D.C. mette in guardia dall’uso di consulenti AI in conflitti complessi reali, sottolineando che “questa idea di utilizzare un AI per fornire un piano strategico completo non è attualmente fattibile, né dal punto di vista tecnico né da quello etico“.

La preoccupazione per l’impiego dell’AI nell’esercito è condivisa anche da Lauren Kahn del Center for Security and Emerging Technology, secondo cui la tecnologia non è ancora pronta per applicazioni di tale portata. “Sono molto preoccupata per questo tipo di utilizzi“, afferma.

Un altro aspetto da tenere in considerazione è il cosiddetto “automation bias“, ovvero la tendenza delle persone a seguire ciecamente i consigli dei sistemi automatizzati, anche quando hanno prove che non siano la scelta corretta. Carol Smith dell’Institute of Software Engineering sottolinea che non raccomanderebbe l’uso di modelli di linguaggio AI per situazioni ad alto rischio.

Scopri di più da Syrus

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere