Темная сторона ИИ уже давно находится под пристальным вниманием ученых. В феврале этого года ей был посвящен 100-страничный отчет, созданный совместными силами сразу нескольких крупных организаций из области киберзащиты и программирования – Фондом электронных рубежей EFF, Институтом будущего человечества, Оксфордским центром по изучению экзистенциального риска, Кембриджским университетом, Центром новой американской безопасности и OpenAI.

Как ожидается, в будущем ИИ будет использован злоумышленниками для проведения более масштабных и сложных атак:

  • компрометации физических систем (беспилотный транспорт, дата центры, узлы управления);
  • вторжения в частную жизнь;
  • социальных манипуляций.

По словам исследователей, нам следует готовиться к новым нападениям, в которых будет реализована улучшенная способность анализировать человеческое поведение, настроение и убеждения на основе имеющихся данных.

“В первую очередь нужно признать, что ИИ – отличный инструмент для манипулирования массами”, - говорит Питер Экерсли, главный технический специалист EFF. - “Поэтому перед нами стоит задача по разработке алгоритмов противодействия”.

Фейковые новости

Манипулирование человеческим поведением – это то, что может подорвать способность демократических государств вести честные публичные дебаты. Как утверждает Джек Кларк, директор отдела по вопросам стратегий и коммуникаций некоммерческой исследовательской организации OpenAI, мы столкнемся с массами убедительных фейков в форме изображений и видео. Это приведет к усилению пропагандистских идей в обществе и растущему количеству ложных новостей.

Существует критическая связь между компьютерной безопасностью и эксплуатацией ИИ в дурных целях: если компьютеры, на которых внедряются системы машинного обучения, не имеют нужной защиты, рано или поздно произойдет беда. “Именно поэтому IT-сфера нуждается в новых инвестициях”, - признается господин Экерсли. - “ИИ – это палка о двух концах. Либо он выведет кибербезопасность на новый уровень, либо разрушит все, чего мы достигли. Наша задача – использовать его в целях обороны, чтобы обеспечить стабильную и безопасную работу электронных устройств”.

Инновации и развитие

Исследователи и инженеры, занятые в области ИИ, должны учитывать тренды киберугроз и не забывать о проблеме двойного назначения своей работы. Эксперты призывают переосмыслить нормы открытости исследований, включая оценки риска, уровни доступа и механизмы совместного использования.

Эти рекомендации вызывают беспокойство у Дэниэла Кастро, директора Центра инновационных данных: “Подобные меры могут замедлить развитие ИИ, так как они не соответствуют инновационной модели, по которой технология успешно развивается”. В дополнение к его словам господин Кастро утверждает, что ИИ может использоваться для разных целей, в том числе и для мошеннических. Однако количество людей, жаждущих настроить машины против человека, сильно преувеличено.

Регулирование вопросов

IT-эксперты надеются более конкретно определить политику развития и управления ИИ-структурами, но согласны, что с некоторыми техническими вопросами стоит повременить. “Часть переговоров лучше отложить до тех пор, пока система не получит широкого внедрения”, - объясняет Питер Экерсли. - Однако есть и другая сторона. Если вы работаете с постоянно меняющейся системой и точно знаете, что реализация необходимых мер предосторожности займет годы, лучше начать, как можно раньше”.

Одна из особенностей государственной политики состоит в том, что она редко реагирует на проблемы на ранней стадии. Так считает Росс Рустичи, старший директор по исследованиям в Cybereason: “Если бы мы могли заставить политическое сообщество вникать в вопросы безопасности, убедить исследователей сосредоточиться на проблемах внедрения технологий, а не на самом факте инновации, мир бы резко поменялся в лучшую сторону. Но к сожалению, как показывает история, наши надежды вряд ли сбудутся. Обычно мы разбираем последствия научных прорывов уже после того, как произойдет нечто нехорошее”.

Популярные публикации

Самые популярные публикации по теме
за сто дней