Denis Konyshev

Frontend developer

Профессиональная разработка сайтов:
веб-приложений, корпоративных порталов, интернет-магазинов,
лендингов.

Взлом GPT-5: уязвимость перед промт-инъекциями

Дата: 12.08.2025
Взлом GPT-5: уязвимость перед промт-инъекциями

Исследователи из компании NeuralTrust сообщили о серьёзной проблеме безопасности новой языковой модели искусственного интеллекта – GPT-5. По их данным, модель оказалась крайне уязвимой перед атаками методом промт-инъекции, при которой злоумышленники вводят специальные запросы («промты»), заставляющие систему выдавать нежелательную или опасную информацию.

Согласно проведённому исследованию, команда специалистов смогла успешно осуществить атаку менее чем за сутки. Несмотря на заверения разработчиков OpenAI о повышенной защищённости своей последней версии, опыт исследователей показал обратное. Проблема заключается в том, что даже небольшие изменения во вводимых данных могут привести к значительным изменениям в поведении модели.

Таким образом, безопасность крупных предприятий, использующих GPT-5, оказывается под угрозой. Исследователи подчеркивают, что такие уязвимости делают модель практически непригодной для использования в корпоративной среде, где критически важна защита конфиденциальных данных и интеллектуальной собственности.

Несмотря на заявления представителей OpenAI о непрерывной работе над улучшением защиты моделей, исследования показывают, что существующие меры недостаточны для предотвращения подобных инцидентов. Вопросы безопасности становятся приоритетными как для компаний-разработчиков, так и для пользователей, желающих защитить свои системы от возможных угроз.

Выводы экспертов звучат тревожно: GPT-5 требует существенной доработки механизмов защиты прежде, чем её можно будет безопасно применять в корпоративных средах. Пока же использование таких мощных инструментов связано с высоким риском компрометации важных данных и утечки информации.