Штучний інтелект як зброя?
Коротко про ШІ та міжнародне гуманітарне право:
- використання автономних дронів/роботів у військових конфліктах,
- питання міжнародно-правової відповідальності держав
Гуманітарне традиційно мало своїм викликом нові технології, а ШІ — особливо.
Кібер-атаки, дрони, бойові робити — все починає застосовуватись. Питання не лише у вбивчості зброї, а у тому, що вона працює із все меншим втручанням людини.
ШІ зброя, вона ж автономна система зброї (AWS) визначається як зброя, яка самостійно визначає та атакує ціль. Питання, чи має така зброя використовуватись у майбутніх битвах?
Принципи і правила МГП повинні застосовуватись і до ШІ зброї.
Люди роблять помилки, і ШІ — теж. Зрештою, ШІ зброя створюється та програмується, а також і використовується, людиною. Відповідно, можна говорити про припасування людиниі відповідальності за дії ШІ зброї. Відповідно, під час створення, програмування та застосування ШІ зброї, людина повинна здійснити всі можливі запобіжні заходи для недопущення функціонування зброї всупереч правилам МГП. Люди не повинні викорстовувати “помилки” ШІ як виправдання. ШІ зброя не може вважатись “комбатантом” у розумінні МГП.
ОК, людина — а хто саме? розробник, виробник, програміст, оператор? Хто відповідає за застосування ШІ зброї?
Першою очевидною відповіддю буде “оператор”. Якщо ж ШІ зброя повністю атвономна, то індивідуальна відповідальність найперше на тих, хто приймає рішення про її застосування. Звичайно, застосування ШІ зброї залежить і від коду/алгоритмів, тому доцільно розробити відповідну конвенцію по ШІ зброї у вигляді додатку до до протоколів МГП. Тобто, вже на цьому етапі, повинні бути нормативні ліміти щодо розробки ШІ зброї, її переміщення тощо.
Для розуміння, ШІ зброя не має людських емоцій чи почуттів, а відтак їхнє застосування вважається більш схильним до порушення принципів МГП. Класичним у цьому сенсі є застосування оператором дронів. Відповідно, враховуючи деякі особьливості ШІ, доцільним вважають тотальну заборону сильно летальної ШІ зброї — а що як Скайнет?
Крім того: ШІ може упереджувати застосування зброї? а може визначати джерело загрози. А може інтернування. Традиційні для ШІ проблеми упередженості алгоритмів та непрозорості алгоритмів.
Вже пропонується тест ШІ з 16 позицій:
атрібютабіліті, людські наміри, алгоритм рішень, деактивація, критичні режими, іпровізація, репрезентація, упередженість…