Темная сторона ИИ уже давно находится под пристальным вниманием ученых. В феврале этого года ей был посвящен 100-страничный отчет, созданный совместными силами сразу нескольких крупных организаций из области киберзащиты и программирования – Фондом электронных рубежей EFF, Институтом будущего человечества, Оксфордским центром по изучению экзистенциального риска, Кембриджским университетом, Центром новой американской безопасности и OpenAI.

Как ожидается, в будущем ИИ будет использован злоумышленниками для проведения более масштабных и сложных атак:

  • компрометации физических систем (беспилотный транспорт, дата центры, узлы управления);
  • вторжения в частную жизнь;
  • социальных манипуляций.

По словам исследователей, нам следует готовиться к новым нападениям, в которых будет реализована улучшенная способность анализировать человеческое поведение, настроение и убеждения на основе имеющихся данных.

“В первую очередь нужно признать, что ИИ – отличный инструмент для манипулирования массами”, - говорит Питер Экерсли, главный технический специалист EFF. - “Поэтому перед нами стоит задача по разработке алгоритмов противодействия”.

Фейковые новости

Манипулирование человеческим поведением – это то, что может подорвать способность демократических государств вести честные публичные дебаты. Как утверждает Джек Кларк, директор отдела по вопросам стратегий и коммуникаций некоммерческой исследовательской организации OpenAI, мы столкнемся с массами убедительных фейков в форме изображений и видео. Это приведет к усилению пропагандистских идей в обществе и растущему количеству ложных новостей.

Существует критическая связь между компьютерной безопасностью и эксплуатацией ИИ в дурных целях: если компьютеры, на которых внедряются системы машинного обучения, не имеют нужной защиты, рано или поздно произойдет беда. “Именно поэтому IT-сфера нуждается в новых инвестициях”, - признается господин Экерсли. - “ИИ – это палка о двух концах. Либо он выведет кибербезопасность на новый уровень, либо разрушит все, чего мы достигли. Наша задача – использовать его в целях обороны, чтобы обеспечить стабильную и безопасную работу электронных устройств”.

Инновации и развитие

Исследователи и инженеры, занятые в области ИИ, должны учитывать тренды киберугроз и не забывать о проблеме двойного назначения своей работы. Эксперты призывают переосмыслить нормы открытости исследований, включая оценки риска, уровни доступа и механизмы совместного использования.

Эти рекомендации вызывают беспокойство у Дэниэла Кастро, директора Центра инновационных данных: “Подобные меры могут замедлить развитие ИИ, так как они не соответствуют инновационной модели, по которой технология успешно развивается”. В дополнение к его словам господин Кастро утверждает, что ИИ может использоваться для разных целей, в том числе и для мошеннических. Однако количество людей, жаждущих настроить машины против человека, сильно преувеличено.

Регулирование вопросов

IT-эксперты надеются более конкретно определить политику развития и управления ИИ-структурами, но согласны, что с некоторыми техническими вопросами стоит повременить. “Часть переговоров лучше отложить до тех пор, пока система не получит широкого внедрения”, - объясняет Питер Экерсли. - Однако есть и другая сторона. Если вы работаете с постоянно меняющейся системой и точно знаете, что реализация необходимых мер предосторожности займет годы, лучше начать, как можно раньше”.

Одна из особенностей государственной политики состоит в том, что она редко реагирует на проблемы на ранней стадии. Так считает Росс Рустичи, старший директор по исследованиям в Cybereason: “Если бы мы могли заставить политическое сообщество вникать в вопросы безопасности, убедить исследователей сосредоточиться на проблемах внедрения технологий, а не на самом факте инновации, мир бы резко поменялся в лучшую сторону. Но к сожалению, как показывает история, наши надежды вряд ли сбудутся. Обычно мы разбираем последствия научных прорывов уже после того, как произойдет нечто нехорошее”.