АТАКИ С ПОМОЩЬЮ "PROMPT INJECTION" В ГОЛОСОВЫХ LLM: ФОРМИРОВАНИЕ ОПАСНЫХ АУДИО-КОМАНД

Главная статья

Б.А. Васильев

Аннотация

В условиях стремительного развития голосовых больших языковых моделей (Voice-LLM) повышается внимание к вопросам безопасности их взаимодействия с аудиовходом. В данной статье рассматриваются атаки с помощью внедрения запросов (prompt injection) в аудиоформате, демонстрирующие уязвимости систем, воспринимающих голосовые команды. Определены механизмы формирования опасных аудиосообщений, способных изменить поведение модели, включая обход фильтров, выполнение нежелательных инструкций и компрометацию пользовательских данных. Описаны возможные сценарии атак, обсуждаются направления повышения устойчивости Voice-LLM к вредоносным аудиовоздействиям.

Подробнее

Как цитировать
ВАСИЛЬЕВ, Б.А.. АТАКИ С ПОМОЩЬЮ "PROMPT INJECTION" В ГОЛОСОВЫХ LLM: ФОРМИРОВАНИЕ ОПАСНЫХ АУДИО-КОМАНД. Международный журнал информационных технологий и энергоэффективности, [S.l.], v. 10, n. 7(57) ч.1, p. 106-109, июля 2025. ISSN 2500-1752. Доступно на: <http://www.openaccessscience.ru/index.php/ijcse/article/view/993>. Дата доступа: 07 авг. 2025
Раздел
Информационные технологии