Як штучний інтелект та роботи-вбивці вплинуть на збройні конфлікти
3D-візуалізація робота з пістолетом.
Вчені розмірковують про переваги та недоліки штучного інтелекту (ШІ) на службі в армії.
Глобальна роботизація та розвиток ШІ впливають на всю сферу життя і, звичайно, цікавлять військових. Про те, що станеться, якщо нейронні мережі різних держав зіткнуться у бою, пише Channelnewsasia.
Військові називають зброю на основі штучного інтелекту "смертоносною" та "автономною" і, — хто таємно, хто явно, — ведуть її розробки. Дрони, автономні системи вогню і навіть "Залізний купол" Ізраїлю — це поки що несміливі спроби впровадження ШІ, робототехніки та напівавтономних бойових систем тому, що той же "Залізний купол", що вміє розпізнавати загрозу і самостійно збивати ракети, — це молот, але не скальпель.
А в армії хочуть якнайшвидше побачити шеренги бійців на кшталт "термінаторів" або "універсальних солдатів", які можуть діяти відповідно до бойової обстановки, моментально приймаючи холодні та грамотні рішення. Те саме стосується всього автономного, чим не потрібно керувати навіть віддаленому оператору (як у випадку з дронами), — йдеться у статті.
Робопес із гвинтівкою.
Деякі вчені знаходять у застосуванні ШІ в армії свої переваги, крім явного, що передбачає збереження життя солдатів своєї власної армії. Рональд Аркін з Технологічного інституту Джорджії говорить, що роботизовані системи на основі ШІ будуть куди "людянішими" в порівнянні з людьми, коли справа торкнеться ліквідації противника: ніякого садизму, ніякої жорстокості, ніякої помсти чи нестримного гніву.
Вчені з Брістольського університету стурбовані ризиком серед мирного населення та зривом переговорних процесів, якщо ШІ вийде з-під контролю або дасть збій. Крім того, вони відзначають велику проблему в навчанні ШІ на основі алгоритму "свій-чужий", коли йдеться саме про живу силу противника. І що робити, якщо ШІ навчать реагувати на ворожий танк, а він прийме за нього цивільну машину, яка проїжджає через блокпост?
Французький солдат запускає дрон на півночі Буркіна-Фасо.
Крім того, навіть якщо підписати якийсь міжнародний меморандум про заборону впровадження ШІ в арміях світу, немає жодної гарантії, що всі сторони дотримуватимуться цього правила. Адже, як справедливо міркують фахівці, договір про незастосування хімічної зброї, наприклад, не дотримувався СРСР — він застосовував її в Афганістані.
Або коли йдеться про таке, здавалося б, банальне та логічне прагнення заборонити протипіхотні міни, від яких у більшості випадків страждають лише мирні жителі, то такі країни, як США, Росія та Китай не поспішають підписуватися під Оттавським договором, хоча 122 країни його підписали ще в 1997 році.
Солдати США поряд із роботом для виявлення наземних мін в Афганістані.
Повертаючись до теми ШІ та озброєння, прихильники цього симбіозу акцентують увагу на праві будь-якої держави захищати себе від агресії будь-яким способом і на тому, що ШІ набагато розумніший, швидший і неупередженіший за людей.
Втім, ми вже непомітно вступили в епоху штучного інтелекту в озброєнні: дрони та ракети, які наводяться на ціль точніше за оператора, роботи-вартові тощо. Все це вже існує і немає жодних сумнівів, що й до епохи умовних "термінаторів" чи "Скайнету" ми також доживемо. Адже політики завжди знайдуть лазівку в таких хитромудрих формулюваннях, як "автономна зброя", "смертоносна автономна зброя" або "роботи-вбивці"...
Поліцейський робот стежить за дотриманням правил боротьби з коронавірусом у Шеньчжені, Китай.
Автори статті кажуть, що нам з вами не потрібно бути супер-експертом у галузі ШІ, щоб розуміти, наскільки небезпечний такий симбіоз. Вони просять, щоб кожен, хто чує чи читає про використання ШІ в армії ставив собі питання: наскільки це виправдано і ризиковано в аспекті збереження життів цивільного населення?
Раніше ми повідомляли, що поліція США хоче прийняти на службу роботів-вбивць: вони атакуватимуть небезпечних злочинців.