|
Темная сторона ИИ уже давно находится под пристальным вниманием ученых. В феврале этого года ей был посвящен 100-страничный отчет, созданный совместными силами сразу нескольких крупных организаций из области киберзащиты и программирования – Фондом электронных рубежей EFF, Институтом будущего человечества, Оксфордским центром по изучению экзистенциального риска, Кембриджским университетом, Центром новой американской безопасности и OpenAI. Как ожидается, в будущем ИИ будет использован злоумышленниками для проведения более масштабных и сложных атак:
По словам исследователей, нам следует готовиться к новым нападениям, в которых будет реализована улучшенная способность анализировать человеческое поведение, настроение и убеждения на основе имеющихся данных. “В первую очередь нужно признать, что ИИ – отличный инструмент для манипулирования массами”, - говорит Питер Экерсли, главный технический специалист EFF. - “Поэтому перед нами стоит задача по разработке алгоритмов противодействия”. Фейковые новостиМанипулирование человеческим поведением – это то, что может подорвать способность демократических государств вести честные публичные дебаты. Как утверждает Джек Кларк, директор отдела по вопросам стратегий и коммуникаций некоммерческой исследовательской организации OpenAI, мы столкнемся с массами убедительных фейков в форме изображений и видео. Это приведет к усилению пропагандистских идей в обществе и растущему количеству ложных новостей. Существует критическая связь между компьютерной безопасностью и эксплуатацией ИИ в дурных целях: если компьютеры, на которых внедряются системы машинного обучения, не имеют нужной защиты, рано или поздно произойдет беда. “Именно поэтому IT-сфера нуждается в новых инвестициях”, - признается господин Экерсли. - “ИИ – это палка о двух концах. Либо он выведет кибербезопасность на новый уровень, либо разрушит все, чего мы достигли. Наша задача – использовать его в целях обороны, чтобы обеспечить стабильную и безопасную работу электронных устройств”. Инновации и развитиеИсследователи и инженеры, занятые в области ИИ, должны учитывать тренды киберугроз и не забывать о проблеме двойного назначения своей работы. Эксперты призывают переосмыслить нормы открытости исследований, включая оценки риска, уровни доступа и механизмы совместного использования. Эти рекомендации вызывают беспокойство у Дэниэла Кастро, директора Центра инновационных данных: “Подобные меры могут замедлить развитие ИИ, так как они не соответствуют инновационной модели, по которой технология успешно развивается”. В дополнение к его словам господин Кастро утверждает, что ИИ может использоваться для разных целей, в том числе и для мошеннических. Однако количество людей, жаждущих настроить машины против человека, сильно преувеличено. Регулирование вопросовIT-эксперты надеются более конкретно определить политику развития и управления ИИ-структурами, но согласны, что с некоторыми техническими вопросами стоит повременить. “Часть переговоров лучше отложить до тех пор, пока система не получит широкого внедрения”, - объясняет Питер Экерсли. - Однако есть и другая сторона. Если вы работаете с постоянно меняющейся системой и точно знаете, что реализация необходимых мер предосторожности займет годы, лучше начать, как можно раньше”. Одна из особенностей государственной политики состоит в том, что она редко реагирует на проблемы на ранней стадии. Так считает Росс Рустичи, старший директор по исследованиям в Cybereason: “Если бы мы могли заставить политическое сообщество вникать в вопросы безопасности, убедить исследователей сосредоточиться на проблемах внедрения технологий, а не на самом факте инновации, мир бы резко поменялся в лучшую сторону. Но к сожалению, как показывает история, наши надежды вряд ли сбудутся. Обычно мы разбираем последствия научных прорывов уже после того, как произойдет нечто нехорошее”. |
Популярные публикацииСамые популярные публикации по теме
|