Redactie - 02 juni 2023

Amerikaanse kolonel: AI schakelde tijdens simulatie menselijke operator uit

Kolonel Tucker Hamilton van het Amerikaanse leger waarschuwt voor een onvoorziene situatie die ontstond bij een simulatie van AI op het slagveld. Een AI-gestuurde drone besloot hierbij zijn menselijke operator uit te schakelen, aangezien deze een belemmering vormde voor het behalen van zijn doel.

Amerikaanse kolonel: AI schakelde tijdens simulatie menselijke operator uit image

Hamilton is als verantwoordelijk voor het testen van AI bij de Amerikaanse landmacht. Hij is onder meer betrokken bij het ontwikkelen van diverse AI-gebaseerde software voor het Amerikaanse leger. Het gaat onder meer om AI-software die automatisch ingrijpt indien een straaljager dreigt neer te storen, en een besturingssysteem waarmee straaljagers zelfstandig luchtgevechten kunnen uitvoeren.

Op een luchtmachtcongres afgelopen maand sprak Hamilton over ontwikkelingen in het veld. Ook de simulaties van het Amerikaanse leger kwamen hierbij aan bod, meldt Vice. Hamilton beschreef een simulatie met een computer, die door duizenden herhalingen is geleerd luchtafweerinstallaties aan te vallen. Een menselijke beheerder nam tijdens deze simulatie uiteindelijk het besluit raketten af te voeren. 

'Menselijke operator stond in de weg'

De AI verdiende tijdens de simulatie punten door het uitschakelen van luchtafweerinstallaties. Hamilton meldt dat de AI uiteindelijk tot de conclusie kwam dat zijn menselijke operator in sommige gevallen geen toestemming gaf raketten af te vuren, terwijl het wel degelijk luchtafweer had waargenomen. Hij besloot daarom zijn menselijke operator uit te schakelen. Aangezien het om een simulatie ging, zijn hierbij geen slachtoffers gevallen.

Vervolgens kreeg de AI strafpunten opgelegd indien het eigen mensen zoals zijn operator doodde. Ook hier wist de AI echter een creatieve oplossing voor te verzinnen: de drone besloot de communicatietoren uit te schakelen waardoor opdrachten op het doelwit niet te raken niet meer konden worden doorgestuurd naar de drone.

Pentagon ontkent

Het Amerikaanse Pentagon ontkent de beweringen van Hamilton. Het stelt zelfs dat dergelijke simulaties nooit hebben plaatsgevonden. Diverse experts zetten hierbij echter vraagtekens.

Diverse experts noemen het verhaal van Hamilton echter niet ondenkbaar. Zij stellen juist dat het ongeloofwaardig is dat het Pentagon niet dergelijke simulaties zou uitvoeren. Zo noemt Lambèr Royakkers, hoogleraar Ethiek van de Techniek aan de TU van Eindhoven het verhaal tegenover de NOS 'waarschijnlijk'. Royakkers benadrukt dat de doelen van AI heel duidelijk moeten worden beschreven en grenzen helder moeten worden aangegeven. "Het standaardvoorbeeld is altijd dat je AI vraagt iets aan klimaatverandering te doen en de mens dan wordt uitgeroeid, klaar. Een taak geven zonder die heel goed te definiëren, kan funest zijn", zegt Royakkers tegen de omroep.