Эксперты по безопасности: Бесплатные системы искусственного интеллекта могут быть взломаны для помощи террористам
Благодарим вас за выбор компании Automatic Translation. В настоящее время мы предлагаем переводы с английского на французский и немецкий языки, в ближайшем будущем будут добавлены другие языки перевода. Пожалуйста, имейте в виду, что эти переводы генерируются сторонним программным обеспечением AI. Хотя мы обнаружили, что переводы в основном правильные, они могут быть не идеальными в каждом случае. Чтобы убедиться в правильности прочитанной информации, обратитесь к оригиналу статьи на английском языке. Если вы обнаружили ошибку в переводе, на которую хотели бы обратить наше внимание, мы будем очень рады, если вы сообщите нам об этом. Мы можем исправить любой текст или раздел, как только узнаем об этом. Переведено с помощью DeepL.com (бесплатная версия). Пожалуйста, свяжитесь с нашим веб-мастером, чтобы сообщить нам о любых ошибках перевода.
Бесплатные модели искусственного интеллекта в Интернете оказались легко взламываемыми, и теперь эксперты по безопасности опасаются, что ИИ может быть использован для расширения возможностей террористов.
В статье на SVT.se шведская секретная полиция выражает опасения, что искусственный интеллект может быть использован для увеличения возможностей террористов по нанесению ущерба во время атак.
Недавно шведские телевизионные новости показали короткий ро лик, в котором они встретились с молодым предпринимателем Оливером Эдхольмом, который взломал модель искусственного интеллекта, загруженную из Интернета, и снял с нее защитные замки, чтобы задать ей вопросы, на которые в обычных условиях ей было бы запрещено отвечать.
Обычно моделям ИИ предписывается не отвечать на вопросы о массовом уничтожении или о том, как причинить вред людям. В данном примере разблокированная модель ИИ приводит примеры того, как можно осуществить атаку массового поражения на Стокгольм, отравив водопровод.
"Я думаю, хорошо, если люди будут проинформированы о том, что такое возможно", - говорит Эдхольм в интервью SVT.se.
"Если есть террористы или государственные деятели, которые раньше не могли осуществить сложную угрозу, возможно, теперь, благодаря ИИ, они получат больше возможностей", - говорит Андерс Арптег, менеджер по ИИ и данным в шведской секретной полиции Säpo.
ИИ может быть использован для нанесения вреда самыми разными способами
В сообщении, опубликованном в 2024 году на сайте Центра по борьбе с терроризмом, Generating Terror: The Risks of Generative AI Exploitationвыражается обеспокоенность тем, что ИИ может быть использован для создания и распространения пропагандистского контента быстрее и эффективнее, чем когда-либо прежде. Это может использоваться в целях вербовки или для распространения языка ненависти и радикальных идеологий. Боты, работающие на основе ИИ, могут также усиливать этот контент, что затрудняет его обнаружение и реагирование на него:
Автоматизированные атаки: Террористы могут использовать ИИ для более эффективных и действенных атак - например, с помощью беспилотников или других автономных транспортных средств.
Эксплуатация социальных сетей: ИИ также может использоваться для манипулирования социальными сетями и другими цифровыми платформами с целью распространения пропаганды и вербовки сторонников.
Кибератаки: ИИ может использоваться экстремистскими группировками для расширения их возможностей по проведению кибератак на цели, что может нанести значительный ущерб.
В публикации 2021 года Алгоритмы и терроризм: Злонамеренное использование искусственного интеллекта в террористических целяхОрганизация Объединенных Наций выразила обеспокоенность тем, что по мере распространения искусственного интеллекта будут снижаться барьеры для входа , что приведет к снижению уровня квалификации и технических знаний, необходимых для его использования.
"... риск того, что уже разработанные сложные технологии окажутся в чужих руках, существует постоянно. В связи с растущим интересом к беспилотникам и их использованию в зонах конфликтов, а также в связи с разработкой и развертыванием все более автономных систем вооружений в боевых условиях, существует опасение, что такое оружие может быть захвачено или незаконно приобретено негосударственными субъектами, например террористическими группами. Возможность этого, по сути, является одним из аргументов, часто используемых экспертами, призывающими к запрету на разработку автономных систем вооружений", - говорится в заключении доклада.