Etika

Přerušení člověka zpomaluje vojenské roboty v simulacích Chytré zprávy

V srpnu se systém umělé inteligence otočil, když porazil ostříleného stíhacího pilota F-16 v pěti simulovaných soubojích vedených Agenturou pro obranné výzkumné projekty (DARPA). V poslední době DARPA a armáda Spojených států studovaly simulované bitvy mezi jednotkami několika stovek vojáků pracujících s roji dronů a robotů řízených AI.

Program s názvem System-of-Systems Enhanced Small Unit, neboli SESU, zjistil, že tendence lidí zasahovat do rozhodovacího procesu robotů jednotku významně zpomalila - natolik, aby ztratili proti společnostem s menším zapojením lidí. Vědci představili výsledky programu na říjnové konferenci velení armádních futures, uvádí Sydney J. Freedberg Jr. Prolomit obranu za podmínky zachování anonymity účastníků.

Armáda již používá bezpilotní zbraňové systémy, které lze ovládat vojákem z dálky. Armáda ale nyní vyvíjí systémy, které umožňují přístup více rukou, jako jsou autonomní robotické drony, které doprovázejí stíhačky s posádkou, píše pro národní obrana časopis. Kritici nového výzkumu to říkají Davidu Hamblingovi na Nový vědec že výsledky mohou poskytnout ospravedlnění umožňující A.I. zbraně fungovaly s malým nebo žádným dohledem, což vzbuzuje bezpečnostní a etické obavy.





Jedná se o technologii, která je stále inteligentnější, stále se měnící a stále autonomnější a dělá si stále více sama, říká Peter W. Singer , stratég think tanku Nová Amerika a odborník na používání robotiky ve válčení, aby národní obrana časopis.

aby jack o lucerna vydržel déle

To znamená, že máme dva druhy právních a etických otázek, se kterými jsme nikdy předtím zápasili. První je přípustnost stroje. Co je nástrojům umožněno samostatně? Druhým je odpovědnost stroje. Kdo přebírá odpovědnost ... za to, co nástroj sám o sobě dělá?



Zatímco Pentagon se s těmito otázkami potýká, výzkum a vývoj jde vpřed bez ohledu na to.

Říká to účastník panelu Army Futures Command pro program SESU Prolomit obranu že roboti jsou navrženi tak, aby rozpoznávali své prostředí a sami se organizovali, aby zvládli jakékoli hrozby, které identifikují. Lidští vojáci se mohli podílet na rozhodovacím procesu robotů, například prohlížením fotografií a videozáznamů cílů identifikovaných A.I. než mohl systém vystřelit, ale to zpomalilo jejich dobu odezvy v simulované bitvě.

[Když] jsme dali schopnosti A.I. k ovládání [virtuálních] rojů robotů a bezpilotních vozidel jsme při provádění simulací zjistili, že lidé je neustále chtějí přerušovat, říká expert SESU Prolomit obranu . Pokud zpomalíme A.I. lidské rychlosti ... ztratíme.



A.I. systémy jsou také užitečné pro jejich schopnost přijít se strategiemi, které by lidští protivníci neočekávali. Lidské zásahy do rozhodovacího procesu by podle vojenských vědců mohly tuto potenciální výhodu zmírnit.

chci klonovat svého psa

Je velmi zajímavé sledovat, jak A.I. sám zjistí ... nějakou velmi choulostivou a zajímavou taktiku, říká vysoký armádní vědec Prolomit obranu . [Často říkáte]: „ach jo, to je docela chytré, jak na to přišel?“

Pro ty, kteří se staví proti používání autonomních zbraní, jako je Kalifornská univerzita, počítačový vědec z Berkeley a A.I. odborník Stuart Russel, výzkum vypadá jako pokus ospravedlnit použití A.I. zbraně bez lidského dohledu.

Ukazuje na kluzký svah, kdy se částečná autonomie a lidská kontrola a částečný lidský dohled atd. Pod tlakem války téměř okamžitě vypaří a armády půjdou rovnou do plné autonomie, pokud mohou, říká Russel k Nový vědec .

Americká armáda sledovala podobný kluzký svah v případě neomezené podmořské války. USA se postavily proti použití této strategie Německem během první světové války, ale po Pearl Harbor v roce 1941 americké námořnictvo začalo proti Japonsku používat neomezenou podmořskou válku.

Změnili jsme názor, říká Singer národní obrana časopis. Proč? Protože jsme prohrávali a byli jsme naštvaní. A tak mohou existovat určitá omezení, která jsme si stanovili [v souvislosti s A.I.], že pokud změníte kontext, můžeme tato omezení odstranit.

Říká Russel Nový vědec že přísné právní kontroly mohou stále pomáhat udržovat určité etické pokyny při vývoji technologií založených na AI. Navrhuje umožnit úplnou autonomii pouze několika vybraným rozsáhlým systémům a zakázat ji v protipěchotních zbraních.

jak psi pocházeli od vlků

DARPA také vyvíjí vysvětlitelné A.I., které bude schopno vysvětlit, jak dospělo ke svým závěrům. To může vědcům pomoci v boji proti kamenům úrazu v A.I. jako algoritmické zkreslení.

Musíme se ujistit, že ... vytváříme nebo vytváříme odpovědné A.I. kultuře, říká Alka Patel, vedoucí etické politiky AI ve Společném středisku umělé inteligence ministerstva obrany národní obrana časopis. To není něco, s čím jsme se všichni narodili. Nemáme tu etickou chybu AI v našem mozku. To je něco, co se musíme naučit a začít s vytvářením svalové paměti.





^