Эксперты предупреждают, что система “летальной автономии” может быть взломана и использована в нежелательных целях
Более 100 ведущих экспертов из роботов предостерегают ООН принять меры, чтобы предотвратить развитие “роботов-убийц”.
В письме к организации ведущие специалисты в области искусственного интеллекта, в частности, миллиардер Илон Маск и один из основателей компании DeepMind Мустафа Сулейман, предупредили о возможной “третью революцию возброєнні”.
“Летальная автономная” технология – это “ящик Пандоры”, и время здесь имеет большое значение.
116 экспертов призывают ООН запретить использование искусственного интеллекта для управления оружием.
“Когда такую технологию разработают, вооруженные конфликты могут развернуться в таком масштабе, которого (человечество) еще не видело, и со временем будут развиваться быстрее, чем это сможет осознать человек”, – говорится в письме.
“Это может быть оружие террора, оружие, которое деспоты и террористы будут использовать против ни в чем неповинных людей, и оружие, систему которой можно скрутить, чтобы использовать в нежелательных целях”, – поясняется в тексте обращения.
Письмо от экспертов по технологиям написан встревоженным тоном и предупреждает, что “у нас нет времени думать долго”.
“Когда ящик Пандоры открыть, закрыть ее будет очень трудно”.
Эксперты называют технологию автономной оружия “морально неправильным” и призывают занести ее в список оружия, запрещенного ООН.
Встреча группы ООН относительно автономного вооружения была запланирована на понедельник, но ее отложили до ноября.
Ранее в комитетах ООН обсуждали возможный запрет на технологию “роботов-убийц”.
В 2015 более тысячи экспертов, ученых и исследователей, в частности Стивен Гокінг, Илон Маск и сооснователь Apple Стив Возняк, опубликовали письмо, в котором предупреждали об опасности применения автономной оружия.
Что такое “робот-убийца”?
Робот-убийца – это полностью автоматизовна оружие, которое может выбирать и поражать цели без вмешательства человека. Сейчас такой технологии не существует, но прогресс в развитии технологий приближает ее появление.
Сторонники роботов-убийц уверены, что действующие законы, регулирующие военные действия, вполне достаточно, чтобы решить любые проблемы, связанные с применением технологии. А также, что в случае возникновения непредвиденной ситуации, на технологию нужно будет наложить мораторий, а не жесткий запрет.
Однако противники технологии утверждают, что она составляет угрозу человечеству, и все автоматические “функции убийства” следует запретить.
По материалам: BBC