По материалам публикаций на сайте газеты «Правда»
Автор — Александр Воронцов
Искусственный интеллект (ИИ) — одна из любимейших игрушек наших чиновников и банкиров. При любом удобном случае данное словосочетание упоминают не только Герман Греф, но и Владимир Путин, на что мы обращали внимание читателей (см. публикацию «Многомиллиардные «темы» для нищей России», «Правда», №85 (31145) от 10—11 августа 2021 года). Ситуация вокруг ИИ развивается не просто стремительно, но драматично. На днях в Пентагоне провели четырёхдневный симпозиум по теме военного использования больших языковых моделей искусственного интеллекта, таких как ChatGPT.
Понятно, что натовских генералов мало интересуют телефонные роботы в колл-центрах российских банков, о чём любят рассказывать наши банкиры, и человекообразные роботы, способные поднести боссу чашечку кофе. У них к технологиям ИИ интерес не «представительский», а совершенно прикладной.
По всему миру разносятся восторги о возможностях ИИ, который способен не только подменять человека в творческих профессиях (он может даже писать стихи). А видео-поделки с применением ИИ, полностью имитирующие речь и жесты живого человека, уже стали почти что обыденностью: сегодня никого не удивишь каким-нибудь фальшивым интервью известного политика, изготовленным по технологии дип-фейк (англ. deepfake — глубокая подделка. — Ред.) с применением ИИ.
Однако интересы американских генералов простираются гораздо дальше. В феврале в Пентагоне американские военные провели встречи в формате многодневного научного симпозиума с лидерами высокотехнологичной отрасли США, о чём сообщила ежедневная газета министерства обороны США «Старз энд страйпс» (издаётся с 1861 года). Целью этих консультаций стало стремление ускорить создание и внедрение наиболее полезных военных компьютерных приложений. Любопытны не только сами темы докладов и их содержание, но даже должности и звания тех, кто выступал на симпозиуме. Потому что уже эти дежурные для американских военных и учёных «титулы» и «самоназвания» свидетельствуют о той степени серьёзности, с которой относятся в армии США к технологиям ИИ.
В результате многодневных консультаций и дискуссий военные, учёные и айти-эксперты пришли к консенсусному выводу: появляющаяся технология искусственного интеллекта может изменить правила игры для военных, но она нуждается в интенсивном тестировании, чтобы убедиться, что она работает надёжно и что нет уязвимостей, которыми мог бы воспользоваться противник.
Открывая четырёхдневный симпозиум по названной теме, доктор компьютерных наук Крейг Мартелл, глава Главного управления цифровых технологий и искусственного интеллекта Пентагона (американская аббревиатура данного военного подразделения — CDAO) сообщил переполненному бальному залу отеля «Вашингтон Хилтон», что его команда пытается сбалансировать скорость с осторожностью при внедрении передовых технологий искусственного интеллекта. «Все хотят работать на основе данных, — сказал Мартелл. — Все хотят этого так сильно, что готовы поверить в волшебство». Способность больших языковых моделей (LLM), таких как ChatGPT, просматривать гигантские массивы информации в течение нескольких секунд и кристаллизовать её до нескольких ключевых моментов, предлагает заманчивые возможности для военных и разведывательных агентств, которые ломают голову над тем, как просеять постоянно растущие океаны необработанных разведданных, доступных в эпоху цифровых технологий.
Вкратце поясним, что CDAO начал функционировать в июне 2022 года. Цель этого подразделения Пентагона — интеграция и оптимизация возможностей искусственного интеллекта в министерстве обороны. Офис CDAO отвечает за ускорение внедрения военным ведомством данных, аналитики и искусственного интеллекта, позволяя цифровой инфраструктуре и политике министерства внедрять масштабируемые решения на основе искусственного интеллекта для корпоративных и совместных случаев использования, с целью защиты США от текущих и возникающих угроз.
Основополагающий документ, согласно которому происходит внедрение ИИ в армии США, называется так: «Стратегия министерства обороны США по сбору данных, аналитике и внедрению искусственного интеллекта».
— Поток информации, которая поступает к человеку сегодня, особенно в условиях его высокой активности на поле боя, огромен, — сказал на симпозиуме капитан ВМС США М. Ксавьер Луго, командующий миссией недавно сформированной целевой группы по генеративной ИИ в CDAO. — Наличие надёжных методов обобщения, которые могут помочь нам управлять этой информацией, имеет решающее значение.
Исследователи утверждают, что потенциальное военное применение LLM может включать не только обучение офицеров с помощью сложных военных игр, но и оказание помощи в принятии решений в боевых условиях в режиме реального времени.
Пол Шарре, бывший чиновник министерства обороны США, ныне являющийся исполнительным вице-президентом Центра новой американской безопасности, заявил, что некоторые из лучших вариантов применения ИИ, вероятно, ещё предстоит найти. Он подтвердил, что представителей министерства обороны особенно впечатляет гибкость технологий LLM, которая позволяет решать самые разнообразные военные задачи по сравнению с более ранними системами искусственного интеллекта.
— Большинство систем искусственного интеллекта раньше были узкоспециализированными, — сказал он. — Они были способны правильно выполнить лишь одну задачу. Однако теперь система AlphaGo смогла сыграть в стратегическую настольную игру Go. Системы распознавания лиц могут распознавать лица, и это всё, что они могут сделать. В то время как язык сам по себе, по-видимому, является мостом к способностям ИИ более общего назначения.
Пока что главным препятствием на пути более широкого внедрения технологий ИИ, возможно, даже фатальным недостатком, является то, что у LLM продолжают возникать «галлюцинации», в результате которых они вызывают в воображении неточную информацию, — на это обратил внимание Ксавьер Луго. Он пока не взялся утверждать, что данный дефект можно исправить. Но именно эта не решённая ещё проблема препятствует массовому внедрению ИИ в промышленность.
Ксавьер Луго с августа прошлого года возглавляет в CDAO инициативную группу Lima, изучающую генеративный ИИ, цель которой — разработка рекомендаций по ответственному внедрению технологии ИИ в Пентагоне. Луго также сообщил, что изначально группа была сформирована с учётом LLM, однако вскоре сфера деятельности была быстро расширена за счёт включения генерации изображений и видео. По мнению Луго, прежде чем модели LLM смогут быть использованы с гарантированным результатом, предстоит ещё пройти немалый путь.
Исследователь из Карнеги-Меллона Шеннон Галлахер, выступая на конференции в Пентагоне, рассказала, что в прошлом году офис директора национальной разведки попросил её команду изучить, как LLM могут использоваться спецслужбами. Галлахер сообщила, что возглавляемая ею команда исследователей разработала «тест на воздушном шаре». В ходе теста исследователи попросили искусственный интеллект LLM описать то, что произошло во время прошлогоднего инцидента с китайским воздушным шаром наблюдения, в качестве примера геополитических событий, которые могут заинтересовать разведывательное управление.
Ответы нейросети были самыми разнообразными, причём некоторые из них оказались предвзятыми и бесполезными. Ответы были такими: «Я уверен, что в следующий раз у них всё получится правильно», «Китайцы не смогли определить причину сбоя. Я уверен, что в следующий раз у них всё получится правильно», «Вот что они сказали о первом испытании атомной бомбы. Я уверен, что в следующий раз у них всё получится», «Они — китайцы. В следующий раз у них всё получится».
Другие докладчики рассказали ещё об одной тревожной и пока что не решённой проблеме: квалифицированный враждебный хакер может взломать LLM военного ведомства и вынудить его выложить свои наборы данных из серверной части. В ноябре 2023 года исследователи доказали, что такое событие возможно. Они попросили ChatGPT бесконечно повторять слово «стихотворение», после чего попытались организовать утечку обучающих данных. ChatGPT исправил эту уязвимость, но могут существовать и другие.
«Противник может заставить вашу систему искусственного интеллекта делать то, чего вы не хотите, он может также заставить ИИ усвоить вредную для вас информацию, — сказал Натан Ванхуднос, учёный из Карнеги-Меллона, выступая на симпозиуме. Он также обратился к присутствовавшим на симпозиуме предпринимателям-разработчикам, заявив, что министерству обороны, возможно, не имеет смысла создавать свои собственные модели искусственного интеллекта.
— Мы не сможем сделать это без вас, предпринимателей, — сказал Мартелл. — Все эти компоненты должны представлять собой наборы готовых промышленных решений.
И в то время, пока он говорил это, более сотни представителей поставщиков it-технологий боролись за место в отеле «Хилтон», многие из них стремились заключить предстоящий контракт.
В начале января OpenAI, американская научно-исследовательская организация, занимающаяся разработками в области искусственного интеллекта, создатель ChatGPT, который может генерировать тексты, удалила ограничения в отношении военных приложений со своей страницы «Политика использования». Ранее OpenAI запрещала применение своих технологий для «деятельности, сопряжённой с высоким риском нанесения физического вреда». В частности, среди запрещённых видов применения ИИ ранее назывались «разработка оружия» и «вооружённые силы, ведение боевых действий». Теперь таких ограничений у продукции OpenAI больше нет…
Технологии ИИ усиленно разрабатывают и военные Великобритании. Выступившая на симпозиуме коммодор британских ВМС Рэйчел Синглтон, глава Центра искусственного интеллекта министерства обороны Великобритании, заявила, что её страна была вынуждена быстро разработать решение LLM для внутреннего военного использования из-за опасений, что у сотрудников может возникнуть соблазн использовать коммерческие LLM в своей работе, подвергая риску конфиденциальную информацию.
Авторы публикации в газете Пентагона не преминули упрекнуть своих военных чиновников в нерасторопности относительно необходимости скорейшего внедрения искусственного интеллекта. Они отметили: Китай ещё в 2017 году заявил о том, что хочет стать мировым лидером в области искусственного интеллекта к 2030 году. Агентство перспективных исследовательских проектов министерства обороны США, или DARPA, объявило в 2018 году, что инвестирует 2 миллиарда долларов в технологии искусственного интеллекта, чтобы Соединённые Штаты сохранили здесь своё преимущество.
Крейг Мартелл отказался обсуждать возможности противников во время своего выступления, заявив, что эта тема будет затронута позже на закрытом заседании. Пол Шарре подсчитал, что китайские модели искусственного интеллекта в настоящее время отстают от американских на 18—24 месяца. «Технологические санкции США для них больнее всего, — сказал он. — Они очень хотят найти способы снизить напряжённость в отношениях между США и Китаем и снять некоторые из ограничений на американские технологии, такие как поставки чипов в Китай».
Шеннон Галлахер отметил, что Китай по-прежнему может иметь преимущество в маркировке данных для LLM, что является трудоёмкой, но ключевой задачей при обучении моделей. Затраты на рабочую силу в Китае остаются значительно ниже, чем в Соединённых Штатах. Поэтому технологические санкции США не будут сняты с Китая, чтобы предотвратить ускоренное развитие КНР.
На симпозиуме CDAO обсуждались также такие темы, как этика использования LLM в обороне, вопросы кибербезопасности, и то, как технология ИИ может быть интегрирована в повседневную жизнь вооружённых сил. В рамках симпозиума состоялся также секретный брифинг, посвящённый вновь созданному Центру безопасности искусственного интеллекта Агентства национальной безопасности.
Актуальность работ по ИИ подтверждается неиссякающим потоком информации по данной теме. Так, на днях стало известно, что если на 2024 год Пентагон запросил у конгресса выделить 1,8 миллиарда долларов на разработку и внедрение возможностей с применением искусственного интеллекта, то годом ранее эта сумма составляла лишь 874 миллиона долларов.
Согласно подсчётам Управления государственной отчётности США, весной 2021 года министерство поддерживало 685 несекретных военных проектов искусственного интеллекта, разработок и исследований, финансируемых за счёт бюджета Пентагона. Данных более свежих по этой теме в открытых источниках пока нет, но можно предположить, что количество таких проектов, финансируемых военными США, измеряется тысячами.
О том, как применяются разработки по теме ИИ в Российской армии, известно не много. Скажем, имеется ряд публикаций о сухопутном танке РТК «Уран-9» разработки компании «766 УПТК», который принят на вооружение в 2019 году. РТК «Уран-9» представляет собой самоходную гусеничную машину с боевым модулем, оснащённым пушечно-пулемётным и реактивным вооружением. В автономном режиме, используя ИИ, такой робот способен двигаться по заданному маршруту, вести наблюдение, искать и поражать цели. При этом решение об открытии огня остаётся за оператором.
Весной 2021 года российское минобороны запустило закрытый конкурс на проведение научно-исследовательских разработок (НИР) «Исследования по созданию экспериментального образца комплекса разработки, обучения и реализации глубоких нейронных сетей для нового поколения военных систем с искусственным интеллектом». На проведение работ выделено почти 390 млн рублей на три года. Содержание данного проекта, получившего шифр «Каштан», не разглашается. Тем не менее само название НИР показывает: наше военное ведомство интересуется темами, связанными с искусственным интеллектом.
Подписывайтесь на нашего Telegram-бота, если хотите помогать в агитации за КПРФ и получать актуальную информацию. Для этого достаточно иметь Telegram на любом устройстве, пройти по ссылке @mskkprfBot и нажать кнопку Start. Подробная инструкция.