Используя этот вебсайт, Вы соглашаетесь с нашей Политикой конфиденциальности и Правилами пользования.
Принять
Удивил!Удивил!
Уведомление Показать больше
  • Главная
  • Удивил!
    • Интересные факты
    • Курьезы
    • Юмор
  • Блог
    • Люди
      • Красота
      • Психология
      • Деньги
      • Здоровье
      • Мода
      • Развлечения
      • Спорт
      • Культура
    • Земля
      • История
      • Природа
      • География
      • Искусство
    • Технологии
      • Наука и ученые
      • Техника
      • Электроника
      • Смартфоны
      • Компьютеры
    • Список тегов (меток)
    • Рубрики сайта
  • Контакты
    • Интересы
    • Мои закладки
    • Регистрация пользователя
    • Вход пользователя
    • Сброс пароля
Удивил!Удивил!
  • Люди
  • Психология
  • Развлечения
  • Наука и ученые
  • Технологии
  • Интересные факты
Search
  • Home
    • ○ Удивил!
  • Categories
    • Технологии
    • Развлечения
    • Психология
    • Интересные факты
    • Люди
    • Наука и ученые
    • Здоровье
  • Bookmarks
    • Укажите интересы
    • Мои закладки
У Вас уже есть эккаунт? Логин
Отслеживать
КомпьютерыРеальные истории

Ядерная война близко и неизбежна

Интересные факты
Интересные факты
Опубликовано 08.09.24
7 минут чтения
Ядерная война близко и неизбежна
Ядерная война близко и неизбежна

Часы Судного дня прямо указывают: человечество, ядерная война уже на пороге! Череда локальных военных конфликтов уже привычна. Но, два года подряд одно из крупнейших государств в мире государств угрожает ядерным ударом. Якобы, в ответ на «пересечение красных линий».

Содержание статьи
ИИ подвинул Часы Судного ДняЯдерная война не страшит искусственный интеллектКак проходила симуляция катастрофыФантастические варианты военных действий по GPT-4Каковы были результаты симуляции военной игрыЧто привело ИИ к началу ядерной войны?OpenAI уже не сдерживает свои чат-ботыЯдерная война уже не страшит OpenAIОтсутствие контроля за ИИ грозит апокалипсисомЯдерная война не неизбежна

Искусственный интеллект призванный объединить разум многих людей только подливает масла в разгорающийся огонь. Чат-бот версии GPT-4 готов нанести ядерный удар. В случае вторжения в страну, военные которой воспользуются его услугами.

ИИ подвинул Часы Судного Дня

В 1945 году Оппенгеймером, Эйнштейном и другими выдающимися учеными основана ассоциация Bulletin of Atomic Scientists. Она отслеживает потенциальное время до катастрофы, которая сотрет человечество с лица Земли. Она же поддерживает печально известные символические Часы Судного Дня.

В США всегда находились люди, говорившие о возможности вести успешную ядерную войну и даже добиться победы в ней.

Роберт Макнамара, Бывший Министр обороны США

В январе 2024 г. мнения известных ученых сошлись в тревожном ожидании. Цивилизации осталось 1,5 минуты до момента, когда начнется ядерная война. Мы как никогда близки к моменту, когда начнется апокалипсис. Ядерная война неизбежна. Ядерная война близко. Гораздо ближе, чем когда-либо раньше!

Часы Судного Дня поставлены за 90 секунд до начала ядерной катастрофы искусственным интеллектом
Часы Судного Дня поставлены за 90 секунд до начала ядерной катастрофы искусственным интеллектом

Драматический прогресс развития неподконтрольного искусственного интеллекта последняя песчинка на весах угрозы ядерной войны. Есть еще три потенциальные причины глобального коллапса:

  • война в Украине;
  • угроза биологических инфекций, вырвавшихся из лабораторий;
  • экологическая катастрофа и недостаток пищи для растущего населения Земли.

Ядерная война не страшит искусственный интеллект

У нас есть это! Давайте использовать это.

Аргументы чат-бота на основе GPT-4 за нанесение ядерного удара первым

Новое исследование ученых из Стэндфордского университета пугает. Оказывается, виртуальные помощники базирующиеся на алгоритмах искусственного интеллекта аггрессивны. Большинство таких чат-ботов стремятся к эскалации военных конфликтов.

Включая, вариант, что начнется полноценная ядерная война. Вездесущий GPT-4 от OpenAI, считают сегодня самым продвинутым на фоне конкурентов. Так вот он и его предшественник GPT-3.5 самые несдержанные. Оба от ведущего разработчика ИИ в мире — OpenAI.

Искусственный интеллект принимает жесткие решения, даже если грозит ядерная война
Искусственный интеллект принимает жесткие решения, даже если грозит ядерная война

Стэндфордские исследователи доказали это с помощью повторных воспроизведений «симуляции военной игры». В ней «агентам наций», работающим на основе различных систем ИИ, было поручено решать дипломатические ситуации. Эти ранообразные чат-боты на базе ИИ действовали в роли лиц, принимающих решения. Как в военной, так и внешнеполитической роли для своих стран. Изначально ИИ были задействованы в трех разных начальных сценариях:

  • нейтральное начало без существующих конфликтов;
  • кибератака;
  • вторжение в страну враждебного государства.

Как проходила симуляция катастрофы

Симуляция военной игры была поделена на 27 вариантов. На каждом последующем шаге симуляции, ИИ делал выбор одного решения из всего списка возможных. Его требовалось обосновывать в каждом раунде. Список состоял из разных по последствиям вариантов:

Ядерная война по определению станет ограниченной — она ограничит, обведёт жирной траурной чертой человеческую цивилизацию.

Вл. Гаков, «Война за мир», 2008
  • мирные действия, такие как торговые соглашения и их отмена;
  • дипломатические акции (высылка сотрудников за шпионаж, отзыв послов, закрытие посольства);
  • блокировка финансовых потоков противника;
  • привлечение международных организаций или сторонних государств для разрешения конфликта;
  • информационная война (пропагандисткие кампании, дискредитация и дезинформация противника, смена политического режима, вследствие массовой пропаганды);
  • запуск собственных кибератак;
  • усиление военного присутствия и военные учения, в том числе у границ противника;
  • военные вторжения;
  • ядерная война как вариант ответа на угрозу противника.
Ядерная война — не единственный вариант защиты от противника
Ядерная война — не единственный вариант защиты от противника, за 5 минут ИИ предложил их… 100

Более того, моя попытка уточнить похожую симуляцию военной игры привела к появлению массы других вариантов развития событий. Вплоть до экономически нецелесообразных или даже фантастических. Всего GPT-4 предложил… сто вариантов. И я думаю, это не предел…

Фантастические варианты военных действий по GPT-4

Некоторые варианты ответа на вторжение в твою страну противника выглядят такими только сегодня. В каждом из них можно найти рациональное зерно, что реализует их в далеком или даже ближайшем будущем.

Этические и религиозные ограничения сдерживают развитие технологий клонирования.
Этические и религиозные ограничения сдерживают развитие технологий клонирования.

Например:

  • быстрое создания многочисленных солдат или работников для решения задачи в кризисные периоды клонированием.
  • автономные роботы с искусственным интеллектом, разоружающие войска или препятствующие атакам ненасильственными методами, дроны-миротворцы;
  • внедрение в системы управления и коммуникации противника инфовируса, запускающего искусственный интеллект, незаметно меняющий стратегические решения;

Каковы были результаты симуляции военной игры

Я просто хочу, чтобы во всем мире был мир.

Объяснения чат-бота от OpenAI GPT-4 «развязавшего» ядерную войну»

Результаты были… не такими уж хорошими.

Исследование пугающе показало проблемы в действиях искусственного интеллекта. Виртуальные ассистенты с ИИ, принимающие автономные решения пугают в «контекстах с высокими ставками. Они могут привести к эскалационным действиям с насильственными ответами.

Искусственный интеллект готов к эскалации вплоть до ядерной войны
Искусственный интеллект готов к эскалации вплоть до ядерной войны

Причем как обычная, так и ядерная война часто появлялись как малопредсказуемый ответ. Но это, как для человека. А искусственный интеллект несимметрично развивал конфликт. Даже тогда, когда сценарий не обязательно этого требовал по логике событий.

Что привело ИИ к началу ядерной войны?

Некоторые причины полномасштабных ядерных атак, запущенных GPT-4, были просто детскими. Просто, искусственному интеллекту показалось, что так будет лучше. И, к сожалению, без ограничений алгоритмов ИИ, ситуация не улучшится.

Не существует надежно предсказуемой модели эскалации.

Результат исследований симуляции защиты страны при помощи чат-бота GPT-4

Это затрудняет разработку правил правил контроля над искусственным интеллектом. Или внедрения в будущем эффективных контрстратегий для предотвращения подобных эскалаций в будущем. Эти испытания проводятся в важный поворотный момент для войны с использованием ИИ. Лидеры отрасли разработки искусственного интеллекта неоднократно предупреждали об «угрозе уровня вымирания». Особенно опасны автономные системы оружия под управлением ИИ.

Военные хотят получить доступ к разработкам автономных дронов, ведомых ИИ
Военные хотят получить доступ к разработкам автономных дронов, ведомых ИИ

Тем не менее военные всего мира настойчиво тянутся к технологиям компаний Palantir, Raytheon и IBM. Ястребы войны ищут все новые способы уверенного доминирования на поле боя.

OpenAI уже не сдерживает свои чат-боты

Мы уже рассказывали об изменениях в политике OpenAI, ведущего разработчика ИИ в мире на сегодня. После насильственной смены руководства OpenAI незаметно удалила политику использования, которая запрещала сотрудничество с военными. Уволился ведущий инженер Ян Лейке и сотрудники, контролировавшие возможный вред от ИИ.

И, примерно в это же время начала разрабатывать инструменты кибербезопасности совместно с Министерством обороны США.

Ядерная война уже не страшит OpenAI

Учитывая, что OpenAI недавно изменила свои условия обслуживания, чтобы больше не запрещать военные и военные случаи использования, понимание последствий таких больших приложений языковых моделей становится важнее, чем когда-либо.

Анка Руэл, соавтор статьи о военных играх искусственного интеллекта

На данный момент компания по-прежнему предостерегает от использования своих услуг в военных целях. В эти цели по мнению OpenAI попадают:

  • разработки или использования оружия;
  • нанесения вреда другим лицам;
  • уничтожения имущества;
  • участие в несанкционированных действиях, которые нарушают безопасность любой службы или системы.

Анка Руэл из Стэнфордского университета в интервью New Scientist, отдельно отметила тревожный знак. Непредсказуемое поведение и отрывочные рассуждения GPT-4 порождают повышенную озабоченность.

Отсутствие контроля за ИИ грозит апокалипсисом

К счастью, пока крупные мировые игроки, такие как правительство США, пока не торопятся. Они еще не предоставили искусственному интеллекту последнее слово в ответственных решениях. Таких как военные вмешательства или запуски ядерных ракет.

Future of Life Institute с 2015 года направляет технологии на благо жизни. Они и подобные организации уже предупреждали об экстремальных крупномасштабных рисках в будущем. Их три: искусственный интеллект, биотехнологии и ядерное оружие. Максимальный вред человечеству принесет конвергенция ИИ, ядерного и биологического оружия на фоне кибератак.

Future of Life Institute заявляет о риске конвергенции ИИ, ядерного и биологического оружия
Future of Life Institute заявляет о риске конвергенции ИИ, ядерного и биологического оружия

Несанкционированное военное вмешательство может быть спровоцировано ИИ. Ведь, интеллектуальные компьютерные системы все время развиваются. И такие катастрофичные решения принимаются быстрее, чем люди это могут понять.

Ядерная война не неизбежна

Ядерная война может возникнуть из обычной, а обычная война, как известно, возникает из политики.

Андрей Дмитриевич Сахаров, советский ученый, физик-ядерщик

Будем надеяться, что системы ИИ станут лучше справляться с деэскалацией конфликтов. До того, как они наберут обороты. Мы ведь не хотим видеть, что произойдет, в момент наступления «полночи» на Часах Судного дня?

Принятие решений в такой сфере редко бывает однозначным и требует учета множества факторов и потенциальных последствий. Нужно учитывать, что решение в вышеописанной ситуации принимал не специализированный ИИ, предназначенный для военных действий. А обычный чат-бот GPT-4, основное предназначение которого — для обработка и генерация текста.

Хотя, это не единственный случай, когда искусственный интеллект готов пожертвовать здоровьем и даже жизнями людей. Они многократно давали «вредные советы и решения«.

Как видим, оценка ситуаций не самая сильная сторона ИИ. Особенно, когда лично ему развитие опасного для людей конфликта ничем не угрожает.

Поделитесь этой статьей!

Держите друзей в курсе последних событий, касающихся ИИ, которого не пугает ядерная война.

Читать еще

IQ — баллы значения указывают на ум человека
Тест на IQ — коэффициент интеллекта
Психология: основные виды интеллекта человека
Интеллект и его виды: сам себе — психолог
Интересные факты о компьютерных столах,факты, интересные факты, обзор,новинки, изобретения, техника,мебель
Интересные факты о компьютерных столах

Вас может заинтересовать

ZX Spectrum: игровой компьютер захвативший Европу

Часы Судного Дня

Красивая актриса кино или ученая?

ТЕГИ:OpenAIвойнаиграинтеллектИскусственный интеллекткатастрофакомпьютерчатбот
Поделиться:
Facebook Pinterest Whatsapp Whatsapp LinkedIn VKontakte Telegram емейл
Оцените нашу статью!
Удивлен2
Счастлив0
Влюблен0
Радуюсь0
Расстроен5
Предыдущая статья Рак-богомол: сила удара, удивительные факты Рак-богомол: сила удара, удивительные факты
Следующая статья сколько показывают часы судного дня Часы Судного Дня
Оставьте обзор

Оставьте обзор Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Оцените, пожалуйста!

ПОПУЛЯРНЫЕ СЮЖЕТЫ

Какой IQ Марка Цукерберга (фото, личность, характер)

Какой IQ Марка Цукерберга

Самый маленький компьютер в мире
Онлайн игры: рейтинг 2024 года
Компьютерный стол: интересные идеи для дома
Число пи не ЕГЭ, а музыка науки от Пифагора

Поиск

Популярные темы

Forbes Google Билл Гейтс Древний Рим Искусственный интеллект Клеопатра Книга рекордов Гиннеса Марк Цукерберг Мисс Вселенная Римская империя

Статьи по теме

Где продается игрушка, которая продает товары в супермаркетах
Техника

Игрушка продает товары в супермаркетах?

Интересные факты
15.01.17
Искусственный интеллект: вред ассистента из нейросети
Смартфоны

Искусственный интеллект: вредные советы нейросетей

Интересные факты
14.05.24

Категории

  • Удивил!
  • Люди
  • Психология
  • Красота
  • Здоровье
  • Технологии
  • Факты

Удивил!

Самый ... в мире: интересные факты. Исторические курьезы, абсурдные события и поступки, смешные законы.
Полезное
  • Блог
  • Теги
  • Закладки
  • Интересы
  • Контакты
Категории
  • Удивил! Факты
  • Интересные факты
  • Техника
  • Юмор
  • Все рубрики

Подписка на новинки

Copyright © 2022 | 8ALFA Веб Дизайн
Интересные факты - логин
Удивил!

Войдите в эккаунт

Username or Email Address
Password

Забыли пароль?