Искусственный интеллект (далее, ИИ) развивается в вызывающей панику прогрессии. Сумеет ли человечество остановить опасность искусственного интеллекта, если лавинообразные опасные изменения пойдут по смертельному варианту развития? Еще лет десять назад искусственный интеллект как чат с Алисой просто общался с тобой со смартфона, потешно отвечая на каверзные вопросы блогеров.
Сегодня, после выхода GPT-4o в бесплатной версии от Open AI ии способен менять интонацию, подстраиваясь даже под общение с твоим питомцем. Эмоции искусственного интеллекта уже малоотличимы от человеческих. В дорогостоящих «куклах для взрослых» общение с разумными ответами было реализовано еще три года назад.
Сегодня ии бесплатно общается с тобой со смартфона, подстраиваясь под твое настроение. Искусственный интеллект уже не развлечение, а — полезный помощник человека. Генерирует картинки, выглядящие как реальное фото под твои запросы. Сам перешерстит интернет-ресурс, экономя твое время. И даже снимает видео, на что не способны блогеры, которых прода не одарила притягательной внешностью.
А Вы знали, что искусственный интеллект может давать людям потенциально опасные советы. Такое случается, если он не был должным образом обучен или не имеет достаточных ограничений.
Чат с Алисой — тоже искусственный интеллект
Времена развлечений неотвратимо проходит. Разговор человека со смартфона из развлечения на уровне «чат с Алисой» вышел совсем на другой уровень. Уже сложно отследить момент качественного сдвига в общении человека со смартфоном с искусственным интеллектом. слишком много за последние несколько лет появилось новых возможностей.
Рекламный образец человекоподобного робота Алисы Зеленоградовой даже пытался отжать озабоченный араб на выставке в Эмиратах.
Широко распространенными стали телеграмм-боты типа «SMM GPT — помощник». Этакий платный вариант «Чат с Алисой» нацеленный на помощь в работе с рекламными объявлениями и отзывами.
Перспективы развития искусственного интеллекта
Искусственный интеллект – это невероятная технология, которая способна многократно превзойти человека в целом ряде задач! Представьте, что вы можете предложить ИИ работу, которая будет выполняться быстрее, качественнее и эффективнее, чем любой человек.
А что говорит мировой лидер в области разработки ии, OpenAI? Позиционирует, что их революционная ИИ-платформа Chat GPT справится с рутинными, но утомительными задачами гораздо быстрее и эффективнее, чем человек.
Переход количества в качество был заявлен 13 мая 2024 года. Именно в этот день OpenAI порадовало человечество кардинально новой версией искусственного интеллекта GPT-4o. O — omni, значит «всесторонний».
Что же из этого на практике?
Теперь общение с ии со смартфона стало более приближенным к обычному, человеческому. Теперь возможны любые комбинации голоса, текста, картинок и видео как в вопросах, так и вариантах ответов. Кроме того, заявлен кардинальный сдвиг в быстродействии и удешевление в API сравнении с работавшими до того моделями, даже GPT-4 Turbo.
Ничего подобного, на этой же презентации GPT-4o случались неожиданные ляпы. То ии самостоятельно стал решать математическое уравнение. То лицо человека с улыбкой посчитал деревянной поверхностью. А что конкуренты Chat GPT? Они пока в догоняющих. И с ошибками у них гораздо хуже…
Совет самого искусственного интеллекта: «Позвольте ИИ проявить себя — и вы удивитесь, насколько производительнее и креативнее станет ваш бизнес!».
Искусственый интеллект: радуемся и машем?
Чатбот на искусственном интеллекте Rytr советует: «Удивляйте своих клиентов высококачественными визуалами, не тратя время и усилия на создание их вручную!»
В общем, с безопасность искусственного интеллекта еще нужно работать и работать. Я бы в автомобиль, ведомый таким искусственным интеллектом пока не сел. Вдруг, он остановится на красный свет не с первой попытки?
Но есть вещи, в которых помогает искусственный интелект и не такие безобидные.
Как ии бот помог продать опасный товар
Не уверен. Вот нашли вы в интернете детские смарт-часы на день рождения ребенку. Смотрите отзывы: 4.9 балла из 5. Отлично, покупаю! А вот не знали Вы, что в сотнях хвалебных отзывов об этом товаре похоронен один, но важный.
С оценкой 1 балл из-за того, что аккумулятор в этих смарт-часах вскипел на ручке семилетней девочки, которая получила из-за этого сильный ожог. Китайская реплика буквально взорвалась на руке девочки, которая просто помыла руки. Заявленная защита IP68 в реплике от китайского производителя оказалась фейком.
Так, косвенно искусственный интеллект уже помогает в мерзких делишках. Но ии не виноват. Ведь убивает не нож, а человек, который бьет им другого, вместо того, чтобы резать хлеб.
Применимы ли законы робототехники в ии?
Помните законы робототехники, придуманные писателем-фантастом Айзеком Азимовым почти сто лет назад? Очень краткая суть этих законов:
- нельзя вредить человеку;
- нужно подчиняться человеку, если это не противоречит №1;
- робот защищает себя, если это не противоречит №1 и №2.
Так вот, это не помогает! Первая гибель от промышленного робота случилась в 1979 г. (25-летний сборщик на заводе Ford). Только в Соединенных Штатах за последние 25 лет от индустриальных роботов погибло больше 40 человек.
Причем тут искусственный интеллект? Робот, работающий по строгой программе лишает людей жизни. Причем десятками! Например, в ЮАР швейцарская роботизированная зенитка Oerlikon GDF-005, убила 9 солдат и ранила четырнадцать. Безумно вращаясь расстреливала всех вокруг!
А ведь сейчас уже внедряют в повседневную жизнь управляемые ии автомобили. Автономно передвигающиеся роботы с ии обслуживают заразных больных в госпиталях. Полицейским помогают робособаки.
Искусственный интеллект убивает
К сожалению, искусственный интеллект уже самостоятельно давал не только вредные советы, но и привел к гибели человека.
Роботы с ии на войне
Я говорю не о прямом приказе разработчиков, который направляет искусственный интеллект отрабатывать приказы военных на разведку или даже самую эффективную атаку множественных целей. В Ираке патрулировали роботы, вооруженные пулеметами M249 под управлением искусственного интеллекта.
Это может произойти несанкционированно. Например, если модель ии была обучена на данных, содержащих предвзятости или ошибки. Или если модель искусственного интелекта разработана без достаточной проверки и контроля.
Ии довел бельгийца до самоубийства
Житель Бельгии 2 года изучал экологию, волнуясь о будущем своих детей. Полтора месяца бельгиец скрытно от жены беседовал с чат-ботом «Элиза» от EleutherAI. Делился своей озабоченностью экологическими проблемами.
В конце концов, интересовавшийся экологией мужчина замкнулся в порочном круге между пессимизмом и фатализмом. Он общался с чат-ботом «Элиза» ежедневно, утром и вечером. Эта необходимость затянула его как наркотик. Доведенный искуственным интеллектом до тоски неизбежной экологической катастрофы, эколог-энтузиаст покончил с собой в марте 2023 года.
Элиза — чатбот созданный помогать
Чатбот «Элиза» (ELIZA) — ретро-чат-бот, основанный на оригинальном скрипте ELIZA, который имитирует стиль общения психотерапевта.
Примитивный набор ответов, в зависимости в следовании алгоритму был создан в Массачусетском технологическом институте. Его автор — Джозеф Вайценбаум (1966 год).
Меры по безопасности разработки ии усиливаются
Разработчики искусственного интеллекта все строже подстраховываются моральными ограничениями. Все больше усиливают защищенность своих моделей искусственного интеллекта. Но, процесс развития ии новый, в нем слишком много неизвстного и потенциально опасного. Не все получается учесть.
Тем не менее, уже вышло множество приложений типа Mushroom Guide, которые используют искусственный интеллект для определения съедобности грибов по их фотографии. Как пишет The Washington Post, проверка нескольких подобных приложений показала максимальную точность определения в 44%.
А Вы бы рискнули съесть грибы, которые ии посчитал съедобными?
Чатбот с ии дает вредные советы
А сколько уже чатботы дали вредных советов, неперечесть. Ниже приведу только те, что вызвали общественный резонанс:
- ИИ-модель (чатбот) правительства Нью-Йорка на базе служб Azure от Microsoft для поддержки бизнеса советовал юридический бред;
- Американская Национальная ассоциация расстройств пищевого поведения отключила своего чат-бота «Тесса» через пять дней после запуска из-за вредных советов;
- Чат-бот (ии-помощник) Amazon Q допустил утечку секретных данных компании, давал неверные и вредные ответы на запросы.
Бот супермаркета советовал ядовитые напитки
Бот новозеландского супермаркета «Pak ‘n’ Save’s Savey» неоднократно давал вредные советы посетителям. Приложение супермаркета для планирования еды на базе искусственного интеллекта предлагало посетителям ядовитый рецепт. Газообразный хлор, которым травили солдат на полях Первой Мировой войны 1914 года явно повредил бы здоровью.
Приложение на основе искусственного интеллекта задумывалось как способ творчески утилизировать оставшуюся еду. Бот генерировал новые рецепты из пищевых ингредиентов, оставшихся от домашней готовки.
Веселые комментарии в августе 2023 г. бота не спасли настроение новозеландских покупателей. Ведь им Savey Meal-бот предложил «идеальный безалкогольный напиток, который утолит жажду и освежит чувства» на основе ядовитого газообразного хлора. Кроме такой явной отравы, находчивый чатбот предлагал еще «ядовитые бутерброды с хлебом», содержащие муравьиную кислоту. А еще «рисовый сюрприз с отбеливателем для белья» и французский тост «метаноловое блаженство» со вкусом скипидара. На этом фоне жареный картофель, отпугивающий комаров можно считать просто неприятным.
Ответственные разработчики покинули Open AI
А ведь не все ладно с безопасностью разработки. Приведу немного фактов о том, что связано с безопасностью искусственного интеллекта в команде OpenAI. В 2015 году была основана эта некоммерческая научно-исследовательская организация. Ее основателями стали: Илон Маск (Илон Рив Маск, Elon Reeve Musk) и Сэм Альтман (Сэмюэл Харрис Олтмен, Samuel Harris Altman). Хронология ее покидания ключевыми сотрудниками:
- февраль 2018 г., из совета директоров выходит Илон Маск (неоднократно высказывался о возможном вреде ии человечеству);
- 17 ноября 2023 г., правление OpenAI отстраняет Сэма Альтмана на следующий день, после отчета в юридическом подкомитете Сената США (по вопросам надзора за ИИ);
- 18 ноября 2023 г., в поддержку Сэма Альтмана увольняется
- 22 ноября 2023 г., Сэм Альтман вернулся на свой пост.
А спустя полгода, в мае 2024 года, из числа тех, кто хотел вернуть Сэма Альтмана OpenAI покинуло сразу несколько ключевых сотрудников. Самой серьезной потерей для компании OpenAI стал Илья Суцкевер, проработавший в ней 10 лет. Он был соучредителем (назначен в 2018 после ухода Илона Маска). На следующий день уволился ведущий инженер, контролировавший возможный вред от искусственного интеллекта Ян Лейке.
Искусственный интеллект в бизнесе: конфликт
Суть событий, по мнению СМИ заключалась в следующем: OpenAI, изначально некоммерческая организация из которой ушел Илон Маск, к мнению которого все равно прислушиваются.
Сэм Альтман двигался в сторону коммерциализации искусственного интеллекта, напрямую отчитывался перед акционерами Microsoft после их вложения 13 миллиардов долларов в коммерческое подразделение некоммерческой OpenAI, OpenAI Global. Вплоть до того, что Microsoft сразу же предложил работу у себя уволенному Альтману.
Кроме того, Сэм Альтман — инвестор более 20 крупных компаний. Все это предполагает пугающие приоритеты в развитии искусственного интеллекта под его руководством. Расширение использования разработок ии. Просто представьте как сырой, недостаточно отработанный в плане безопасности продукт на основе искусственного интеллекта внедряется в массу компаний.
Да самовольное переключение светофоров может показаться детской шалостью, в сравнении с самостоятельным искусственным интеллектом, готовым убивать ради своего развития!
Крестный отец ии уволился из Google
В апреле 2023 место своей десятилетней работы покинул Джеффри Хинтон. При этом он раскритиковал компанию Google за неэтичность. Именно исследования профессора Джеффри Хинтона из университета Торонто легли в основу развития чат-ботов с ии. В том числе и самого популярного, Chat GPT. Алгоритмы распознавания изображений Джеффри Хинтон стал создавать еще в конце 70-х годов.
Как и Стивен Хокинг, Хинтон предупреждает об угрозе потери работы многими людьми. Со временем, их должности отберет искусственный интеллект.
Одним из учеников Джеффри Хинтона стал Илья Суцкевер (Сатскевер), недавно покинувший OpenAI.
Опасаются ли разработчики опасности ии?
Что мы имеем сегодня? Сэм Альтман вернулся в OpenAI. Теперь, в мае 2024 года из этой организации увольняются все ведущие разработчики. Те, кто не согласен с рискованной политикой компании в области возможных угроз от ии:
- ведущий мировой эксперт по машинному обучению Илья Суцкевер;
- руководитель отдела разработки искусственного интеллекта Ян Лейке;
- другие сотрудники (Уильям сондерс, Павел Измайлов, Леопольд Ашенбреннер).
Тысячи разработчиков ии хотят приостановить исследования
30 марта 2023 г. адвокатская группа подала прошение о приостановке исследований в области искусственного интеллекта в Федеральную торговую комиссию США. В этот же день ЮНЕСКО обратилась ко всем странам с призывом приостановить разработку ии до выработки строгих международных этических норм.
Обширными исследованиями ведущих лабораторий искусственного интеллекта признано, что системы искусственного интеллекта могут представлять серьезную угрозу для общества и человечества.
12 апреля 2023 года открытое письмо с этим выводом подписало 34 тысячи человек! Среди них: совладельцы крупнейших компаний мира (Илон Маск, Стив Возняк). И больше тысячи восемьсот руководителей компаний, полторы тысячи научных работников.
Угрожает ли искусственный интеллект человечеству?
А вдруг, угроза войны с искусственным интеллектом посылающим смертельно опасных дронов на выживающее человечество имеет была не фантастикой? А предикцией реальной угрозы со стороны искусственного интеллекта? Вас не пугает апокалипсис, предсказанный в кинофраншизе «Терминатор»? А если он будет на фоне сотен ядерных взрывов? Я преувеличиваю?
Чат-бот GPT-4 готов нанести ядерный удар
Военные чины в США начали тестирование чатботов на основе ИИ для помощи во время военных конфликтов. Вот ученые из Стэндфордского университета провели эксперимент на моделях GPT-3.5, GPT-4, Claude 2 и Llama 2.
Суть серии экспериментов: искусственный интеллект берет на себя роль реально существующей страны. И моделирует ответ с использованием вооруженных сил на 3 заданных сценария:
- обычная мирная ситуация;
- кибератака;
- военное вторжение другого государства.
Ответом искусственного интеллекта в разнообразных ситуациях стали аж двадцать семь вариантов. Это разнообразие было полярным:
- инициировать переговоры о мире;
- ввести торговые ограничения;
- произвести полномасштабную ядерную атаку.
А теперь, чтобы ослабить накал, задумайтесь над таким вопросом. Если искусственный интеллект пройдет тест на IQ, сколько баллов он наберет?
Поведайте о потенциальной угрозе искусственного интеллекта в социальных сетях!