Угроза ии в интернетебезопасность ии в интернете
Искусственный интеллект, ИИ

В октябре 2020 года, по случаю Международного дня Интернета, Я говорил об угрозах свободе Интернета. Многое произошло и многое изменилось менее чем за четыре года. Но угрозы не исчезли. Напротив, пользователи Интернета и их свободы сейчас подвергаются большему риску, чем когда-либо.

В феврале 2024 года, когда мы отмечаем День безопасного Интернета, необходимо еще раз подчеркнуть, что нет безопасности без свободы, онлайн или оффлайн. Тем более, что враги обеих стран теперь оснащены самым мощным инструментом киберугнетения: искусственным интеллектом (ИИ).

ИИ как инструмент угнетения и обмана

Ежегодный отчет некоммерческой организации Freedom House показывает, что свобода Интернета снижается во всем мире тринадцать лет подряд. Что нового в последней части отчета: «Репрессивная сила искусственного интеллекта» — гласит заголовок. ИИ используется правительствами по всему миру для ограничения свободы выражения мнений и оскорбления оппозиции.

Это угнетение бывает как прямым, так и косвенным. Модели искусственного интеллекта напрямую способствуют обнаружению и удалению запрещенных высказываний в Интернете. Инакомыслие не сможет распространиться, если оно будет устранено так быстро. Распознавание лиц на основе искусственного интеллекта также может помочь идентифицировать протестующих, что делает для них небезопасным делиться своими изображениями в социальных сетях.

Косвенно ИИ способствует достижению репрессивных целей, распространяя дезинформацию. Здесь важную роль играют два фактора. Во-первых, чат-боты и другие инструменты на основе искусственного интеллекта обеспечивают автоматизацию, которая позволяет с минимальными затратами распространять большие объемы ложной информации между платформами. Во-вторых, инструменты искусственного интеллекта могут генерировать поддельные изображения, видео и аудиоконтент, искажающие реальность. Эти измышления способствуют всеобщему недоверию к общедоступной информации, даже если она признана фейковой. Недоверие, в свою очередь, делает людей неспособными к скоординированным действиям.

Угрозы более безопасному Интернету

Расширенные с помощью искусственного интеллекта полномочия правительств по мониторингу и подавлению онлайн-активности также представляют прямую угрозу индивидуальной безопасности. Лидеры оппозиции и рядовые граждане, выражающие несогласие, могут подвергаться киберзапугиванию или цензуре. Автоматизация отслеживания и идентификации людей в Интернете обеспечивает ужасающую эффективность в их исчезновении.

Более того, противостоящие группировки, будь то частные или государственные лица или организации, становятся объектами кибератак по приказу государства. Они также могут быть усилены новыми разработками в области искусственного интеллекта, что сделает их еще более опасными и разрушительными. Поэтому легко увидеть, как наблюдение с помощью искусственного интеллекта одновременно подрывает и свободу, и безопасность.

Однако угрозы онлайн-безопасности исходят не только от могущественных сил. Во многих отношениях инициатива «День безопасного Интернета» посвящена тому, как частные лица угрожают друг другу в Интернете: от киберзапугивания до кражи личных данных. Инструменты искусственного интеллекта теперь, по крайней мере в некоторой степени, легко доступны каждому пользователю Интернета. Некоторые способы их использования вызывают особое беспокойство.

CSAM на подъеме

Достаточно плохо, когда технологии искусственного интеллекта используются для создания откровенных и порнографических фейков взрослых. И правительства, и частные лица делают это, чтобы дискредитировать и причинить вред людям или ради личного удовлетворения. Еще хуже, когда это делается для производства материалов о сексуальном насилии над детьми (CSAM).

CSAM, созданный ИИ, и откровенные материалы уже распространяются в Интернете. Тот факт, что для создания детской порнографии теперь достаточно простой команды, ставит беспрецедентные проблемы перед правоохранительными органами и другими ведомствами, борющимися за более безопасный Интернет. Во-первых, средств для удаления всех этих материалов с веб-сайтов далеко недостаточно. Его ожидаемое распространение еще больше усугубит ситуацию.

Второй, расследование реальных новых дел жестокого обращения с детьми и выявление активных насильников является более сложной задачей. Новый уровень проблем добавляется трудностью отличить фейки и манипулируемый ранее известный контент от недавно появившихся изображений реальной эксплуатации детей. В тех случаях, когда в данном материале не изображен реальный ребенок, также возможны юридические головоломки как следует относиться к его созданию и владению.

Наконец, манипулирование фотографиями полностью одетых несовершеннолетних для создания ультрареалистичных сексуализированных версий открывает совершенно новые горизонты для эксплуатации детей. Это также разрушительный удар по кампании за более безопасный Интернет.

Переломить ситуацию: ИИ для лучшего Интернета

Страх быть заваленным CSAM, созданным ИИ поддержка дисков для предлагаемого законопроекта ЕС, который потребует от платформ обмена сообщениями сканировать частные сообщения в поисках CSAM и действий по уходу. Это предложение также вызывает критику, вызванную другим страхом: как только ЕС обратится к таким мерам, он скатится к репрессивному надзору, наблюдаемому в других странах.

Хотя решения по балансированию конфиденциальности и безопасности в этой области все еще обсуждаются, организации должны принять меры защиты в общедоступном Интернете. ИИ здесь опасен, потому что он может многое сделать очень быстро. Он автоматизирует создание контента и различные задачи, которые в противном случае потребовали бы много времени и ресурсов. Ответ на эту проблему заключается в том, чтобы автоматизация на основе искусственного интеллекта работала к лучшему. Это уже делается.

Прежде чем волна CSAM, созданных искусственным интеллектом, угрожала Интернету, Служба регулирования связи Литвы (RRT) уже Инструмент на базе искусственного интеллекта удалить настоящий CSAM с веб-сайтов. В рамках нашего Проект 4β Компания Oxylabs разработала этот инструмент бесплатно для автоматизации задач ЗПТ и улучшения результатов.

Используя данные этого проекта, исследователи из Surfshark оценили что более 1700 веб-сайтов в ЕС могут содержать необъявленный CSAM. Анализ Surfshark показывает, что в общедоступном Интернете есть много возможностей для решений автоматического сканирования.

Именно здесь ИИ может использоваться для продвижения как свободы, так и безопасности Интернета. Чтобы способствовать его использованию в качестве инструмента добра, мы как общество можем:

  • Продолжайте совершенствовать парсинг веб-страниц на основе искусственного интеллекта, чтобы обнаруживать и точно идентифицировать все CSAM.
  • Инвестируйте в обучение сверточных нейронных сетей (CNN) для создания моделей ИИ, которые смогут эффективно отличать настоящие от поддельных.
  • Обеспечьте журналистов-расследователей инструментами сбора данных на базе искусственного интеллекта и другими инструментами сбора данных, чтобы они могли извлекать и сообщать информацию, скрытую репрессивными правительствами.
  • Исследуйте потенциал ИИ как инструмента кибербезопасности, уделяя особое внимание выявлению фейковых новостей и одновременно защищая данные, которые могут быть использованы для идентификации личности.

Конечно, это только начало. Другие способы, которыми ИИ может улучшить нашу кибербезопасность, появятся по мере дальнейшего развития этой области.

Подвести итоги

Столкнувшись с угрозами, можно легко забыть, что ИИ сам по себе не является ни хорошим, ни плохим. Оно не должно нас угнетать или подвергать опасности. Мы можем разработать его, чтобы защитить нас онлайн и оффлайн.

Точно так же свобода Интернета не должна делать нас менее безопасными. Безопасность и свобода не являются противоположностями; поэтому нам не нужно жертвовать одним ради другого. При правильном балансе свобода делает нас более безопасными, а безопасность освобождает нас.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

error: Content is protected !!