АТАКИ С ПОМОЩЬЮ "PROMPT INJECTION" В ГОЛОСОВЫХ LLM: ФОРМИРОВАНИЕ ОПАСНЫХ АУДИО-КОМАНД
Главная статья
Аннотация
В условиях стремительного развития голосовых больших языковых моделей (Voice-LLM) повышается внимание к вопросам безопасности их взаимодействия с аудиовходом. В данной статье рассматриваются атаки с помощью внедрения запросов (prompt injection) в аудиоформате, демонстрирующие уязвимости систем, воспринимающих голосовые команды. Определены механизмы формирования опасных аудиосообщений, способных изменить поведение модели, включая обход фильтров, выполнение нежелательных инструкций и компрометацию пользовательских данных. Описаны возможные сценарии атак, обсуждаются направления повышения устойчивости Voice-LLM к вредоносным аудиовоздействиям.
Подробнее

Это произведение доступно по лицензии Creative Commons «Attribution-NonCommercial-ShareAlike» («Атрибуция — Некоммерческое использование — На тех же условиях») 4.0 Всемирная.
Неисключительные права на статью передаются журналу в полном соответствии с Лицензией Creative Commons By-NC-SA 4.0 (Международная)