12. února Ministerstvo obrany USA zveřejnilo své plány na použití umělé inteligence v armádě, píše Foreign Policy. Nejzajímavější je však to, co se do zprávy nedostalo: v dokumentu se nezvažuje možnost použití „smrtící zbraně schopné přemýšlet a jednat podle vlastního uvážení".
Podle Jacka Shanahana, který řídí nové Společné centrum pro umělou inteligenci ministerstva obrany USA, Pentagon připravuje řadu projektů, v nichž bude umělecká inteligence použita k řešení běžných problémů, jakými jsou likvidace a prevence povodní a požárů, stejně jako preventivní údržba vojenského vybavení.
„Nedostali jsme se ani blízko k otázce úplné autonomie, na kterou hned lidé myslí, pokud jde o Ministerstvo obrany a umělou inteligenci," řekl Shanahan.
V roce 2012 úřad zveřejnil speciální předpis, ve kterém se snažil zjistit, co to znamená „autonomní zbraňový systém" a jakým způsobem by se s ním mělo jednat. Bylo jasně určeno, že v konečném důsledku by kontrolovat tyto zbraně měl stále člověk, ale do jaké míry, to je otevřená otázka.
Mezitím Pentagon není připraven se úplně spoléhat na vybavení v obtížných bojových podmínkách.
„Je to opravdu obtížné, vzhledem k úrovni spolehlivosti, kterou USA vyžadují při použití vojenské síly. Nechci říkat, že to není možné a někdo jiný, s nižšími standardy, se může rozhodovat pro sebe. Ale velmi vysoké požadavky k našim zbraním tento okamžik oddalují," komentuje Horowitz.
Jak poznamenává expert, nová strategie amerického ministerstva obrany týkající se umělé inteligence je zaměřena na zvýšení investic v této oblasti a ve skutečnosti je pokračováním politik předchozích vlád. Hlavní myšlenkou dokumentu je nutnost urychlit vývoj a zavádění uměle inteligence v armádě, jakož i vytvoření zvláštních etických standardů a bezpečnosti.