Эксперты предупреждают, что система «летальной автономии» может быть взломана и использована в нежелательных целях
Более 100 ведущих экспертов из роботов предостерегают ООН принять меры, чтобы предотвратить развитие «роботов-убийц».
В письме к организации ведущие специалисты в области искусственного интеллекта, в частности, миллиардер Илон Маск и один из основателей компании DeepMind Мустафа Сулейман, предупредили о возможной «третью революцию возброєнні».
«Летальная автономная» технология — это «ящик Пандоры», и время здесь имеет большое значение.
116 экспертов призывают ООН запретить использование искусственного интеллекта для управления оружием.
«Когда такую технологию разработают, вооруженные конфликты могут развернуться в таком масштабе, которого (человечество) еще не видело, и со временем будут развиваться быстрее, чем это сможет осознать человек», — говорится в письме.
«Это может быть оружие террора, оружие, которое деспоты и террористы будут использовать против ни в чем неповинных людей, и оружие, систему которой можно скрутить, чтобы использовать в нежелательных целях», — поясняется в тексте обращения.
Письмо от экспертов по технологиям написан встревоженным тоном и предупреждает, что «у нас нет времени думать долго».
«Когда ящик Пандоры открыть, закрыть ее будет очень трудно».
Эксперты называют технологию автономной оружия «морально неправильным» и призывают занести ее в список оружия, запрещенного ООН.
Встреча группы ООН относительно автономного вооружения была запланирована на понедельник, но ее отложили до ноября.
Ранее в комитетах ООН обсуждали возможный запрет на технологию «роботов-убийц».
В 2015 более тысячи экспертов, ученых и исследователей, в частности Стивен Гокінг, Илон Маск и сооснователь Apple Стив Возняк, опубликовали письмо, в котором предупреждали об опасности применения автономной оружия.
Что такое «робот-убийца»?
Робот-убийца — это полностью автоматизовна оружие, которое может выбирать и поражать цели без вмешательства человека. Сейчас такой технологии не существует, но прогресс в развитии технологий приближает ее появление.
Сторонники роботов-убийц уверены, что действующие законы, регулирующие военные действия, вполне достаточно, чтобы решить любые проблемы, связанные с применением технологии. А также, что в случае возникновения непредвиденной ситуации, на технологию нужно будет наложить мораторий, а не жесткий запрет.
Однако противники технологии утверждают, что она составляет угрозу человечеству, и все автоматические «функции убийства» следует запретить.
По материалам: BBC