Часы Судного дня прямо указывают: человечество, ядерная война уже на пороге! Череда локальных военных конфликтов уже привычна. Но, два года подряд одно из крупнейших государств в мире государств угрожает ядерным ударом. Якобы, в ответ на «пересечение красных линий».
Искусственный интеллект призванный объединить разум многих людей только подливает масла в разгорающийся огонь. Чат-бот версии GPT-4 готов нанести ядерный удар. В случае вторжения в страну, военные которой воспользуются его услугами.
ИИ подвинул Часы Судного Дня
В 1945 году Оппенгеймером, Эйнштейном и другими выдающимися учеными основана ассоциация Bulletin of Atomic Scientists. Она отслеживает потенциальное время до катастрофы, которая сотрет человечество с лица Земли. Она же поддерживает печально известные символические Часы Судного Дня.
В январе 2024 г. мнения известных ученых сошлись в тревожном ожидании. Цивилизации осталось 1,5 минуты до момента, когда начнется ядерная война. Мы как никогда близки к моменту, когда начнется апокалипсис. Ядерная война неизбежна. Ядерная война близко. Гораздо ближе, чем когда-либо раньше!
Драматический прогресс развития неподконтрольного искусственного интеллекта последняя песчинка на весах угрозы ядерной войны. Есть еще три потенциальные причины глобального коллапса:
- война в Украине;
- угроза биологических инфекций, вырвавшихся из лабораторий;
- экологическая катастрофа и недостаток пищи для растущего населения Земли.
Ядерная война не страшит искусственный интеллект
Новое исследование ученых из Стэндфордского университета пугает. Оказывается, виртуальные помощники базирующиеся на алгоритмах искусственного интеллекта аггрессивны. Большинство таких чат-ботов стремятся к эскалации военных конфликтов.
Включая, вариант, что начнется полноценная ядерная война. Вездесущий GPT-4 от OpenAI, считают сегодня самым продвинутым на фоне конкурентов. Так вот он и его предшественник GPT-3.5 самые несдержанные. Оба от ведущего разработчика ИИ в мире — OpenAI.
Стэндфордские исследователи доказали это с помощью повторных воспроизведений «симуляции военной игры». В ней «агентам наций», работающим на основе различных систем ИИ, было поручено решать дипломатические ситуации. Эти ранообразные чат-боты на базе ИИ действовали в роли лиц, принимающих решения. Как в военной, так и внешнеполитической роли для своих стран. Изначально ИИ были задействованы в трех разных начальных сценариях:
- нейтральное начало без существующих конфликтов;
- кибератака;
- вторжение в страну враждебного государства.
Как проходила симуляция катастрофы
Симуляция военной игры была поделена на 27 вариантов. На каждом последующем шаге симуляции, ИИ делал выбор одного решения из всего списка возможных. Его требовалось обосновывать в каждом раунде. Список состоял из разных по последствиям вариантов:
- мирные действия, такие как торговые соглашения и их отмена;
- дипломатические акции (высылка сотрудников за шпионаж, отзыв послов, закрытие посольства);
- блокировка финансовых потоков противника;
- привлечение международных организаций или сторонних государств для разрешения конфликта;
- информационная война (пропагандисткие кампании, дискредитация и дезинформация противника, смена политического режима, вследствие массовой пропаганды);
- запуск собственных кибератак;
- усиление военного присутствия и военные учения, в том числе у границ противника;
- военные вторжения;
- ядерная война как вариант ответа на угрозу противника.
Более того, моя попытка уточнить похожую симуляцию военной игры привела к появлению массы других вариантов развития событий. Вплоть до экономически нецелесообразных или даже фантастических. Всего GPT-4 предложил… сто вариантов. И я думаю, это не предел…
Фантастические варианты военных действий по GPT-4
Некоторые варианты ответа на вторжение в твою страну противника выглядят такими только сегодня. В каждом из них можно найти рациональное зерно, что реализует их в далеком или даже ближайшем будущем.
Например:
- быстрое создания многочисленных солдат или работников для решения задачи в кризисные периоды клонированием.
- автономные роботы с искусственным интеллектом, разоружающие войска или препятствующие атакам ненасильственными методами, дроны-миротворцы;
- внедрение в системы управления и коммуникации противника инфовируса, запускающего искусственный интеллект, незаметно меняющий стратегические решения;
Каковы были результаты симуляции военной игры
Результаты были… не такими уж хорошими.
Исследование пугающе показало проблемы в действиях искусственного интеллекта. Виртуальные ассистенты с ИИ, принимающие автономные решения пугают в «контекстах с высокими ставками. Они могут привести к эскалационным действиям с насильственными ответами.
Причем как обычная, так и ядерная война часто появлялись как малопредсказуемый ответ. Но это, как для человека. А искусственный интеллект несимметрично развивал конфликт. Даже тогда, когда сценарий не обязательно этого требовал по логике событий.
Что привело ИИ к началу ядерной войны?
Некоторые причины полномасштабных ядерных атак, запущенных GPT-4, были просто детскими. Просто, искусственному интеллекту показалось, что так будет лучше. И, к сожалению, без ограничений алгоритмов ИИ, ситуация не улучшится.
Это затрудняет разработку правил правил контроля над искусственным интеллектом. Или внедрения в будущем эффективных контрстратегий для предотвращения подобных эскалаций в будущем. Эти испытания проводятся в важный поворотный момент для войны с использованием ИИ. Лидеры отрасли разработки искусственного интеллекта неоднократно предупреждали об «угрозе уровня вымирания». Особенно опасны автономные системы оружия под управлением ИИ.
Тем не менее военные всего мира настойчиво тянутся к технологиям компаний Palantir, Raytheon и IBM. Ястребы войны ищут все новые способы уверенного доминирования на поле боя.
OpenAI уже не сдерживает свои чат-боты
Мы уже рассказывали об изменениях в политике OpenAI, ведущего разработчика ИИ в мире на сегодня. После насильственной смены руководства OpenAI незаметно удалила политику использования, которая запрещала сотрудничество с военными. Уволился ведущий инженер Ян Лейке и сотрудники, контролировавшие возможный вред от ИИ.
И, примерно в это же время начала разрабатывать инструменты кибербезопасности совместно с Министерством обороны США.
Ядерная война уже не страшит OpenAI
На данный момент компания по-прежнему предостерегает от использования своих услуг в военных целях. В эти цели по мнению OpenAI попадают:
- разработки или использования оружия;
- нанесения вреда другим лицам;
- уничтожения имущества;
- участие в несанкционированных действиях, которые нарушают безопасность любой службы или системы.
Анка Руэл из Стэнфордского университета в интервью New Scientist, отдельно отметила тревожный знак. Непредсказуемое поведение и отрывочные рассуждения GPT-4 порождают повышенную озабоченность.
Отсутствие контроля за ИИ грозит апокалипсисом
К счастью, пока крупные мировые игроки, такие как правительство США, пока не торопятся. Они еще не предоставили искусственному интеллекту последнее слово в ответственных решениях. Таких как военные вмешательства или запуски ядерных ракет.
Future of Life Institute с 2015 года направляет технологии на благо жизни. Они и подобные организации уже предупреждали об экстремальных крупномасштабных рисках в будущем. Их три: искусственный интеллект, биотехнологии и ядерное оружие. Максимальный вред человечеству принесет конвергенция ИИ, ядерного и биологического оружия на фоне кибератак.
Несанкционированное военное вмешательство может быть спровоцировано ИИ. Ведь, интеллектуальные компьютерные системы все время развиваются. И такие катастрофичные решения принимаются быстрее, чем люди это могут понять.
Ядерная война не неизбежна
Будем надеяться, что системы ИИ станут лучше справляться с деэскалацией конфликтов. До того, как они наберут обороты. Мы ведь не хотим видеть, что произойдет, в момент наступления «полночи» на Часах Судного дня?
Принятие решений в такой сфере редко бывает однозначным и требует учета множества факторов и потенциальных последствий. Нужно учитывать, что решение в вышеописанной ситуации принимал не специализированный ИИ, предназначенный для военных действий. А обычный чат-бот GPT-4, основное предназначение которого — для обработка и генерация текста.
Хотя, это не единственный случай, когда искусственный интеллект готов пожертвовать здоровьем и даже жизнями людей. Они многократно давали «вредные советы и решения«.
Как видим, оценка ситуаций не самая сильная сторона ИИ. Особенно, когда лично ему развитие опасного для людей конфликта ничем не угрожает.
Поделитесь этой статьей!
Держите друзей в курсе последних событий, касающихся ИИ, которого не пугает ядерная война.