Воскресенье, 11 января, 2026

Юлия Задорожная и команда МГУ провели оценку MLLMs на COCO, Flickr30k и VQAv2

-

scientificrussia.ru
Фото: scientificrussia.ru

Группа исследователей под руководством Юлии Задорожной, Булата Нутфуллина и Леонида Дмитриева представила инновационный программный инструмент для комплексной оценки устойчивости мультимодальных больших языковых моделей (MLLMs). Подобные нейросети, способные анализировать одновременно и текстовые, и визуальные данные, все активнее используются в цифровых помощниках, системах распознавания изображений и интеллектуальных поисковых платформах. Однако с распространением таких технологий всё актуальнее становятся вопросы их надёжности и безопасности.

Зачем нужна устойчивость мультимодальных моделей

Мультимодальные нейросети, соединяющие обработку картинок и текстов, совершают настоящую революцию в области искусственного интеллекта. Они решают широкий спектр задач — от генерации подписей к фотографиям до ответов на вопросы по изображениям. Однако остаётся открытым вопрос: насколько стабильны такие системы при столкновении с нестандартными или специально модифицированными вводными данными?

Появление даже небольших изменений на важнейших участках изображения может привести к ошибочным выводам нейросети. Особенно это критично для защитных систем, автопилотов, средств видеонаблюдения и интеллектуальных помощников, принимающих решения в реальном времени.

Оценка робастности на примере реальных датасетов

Инновационный инструмент был испытан на хрестоматийных наборах данных — COCO, Flickr30k и VQAv2. Они охватывают как задачи генерации текстовых описаний, так и визуального анализа на основе вопросов и поиска объектов по тексту. Качество работы моделей оценивалось при помощи признанных показателей BLEU-4, CIDEr, IoU и VQA-Accuracy, что позволило зафиксировать любые изменения в ответах MLLMs в нормальных и стрессовых условиях.

Во всех тестах был сделан упор на внесение незаметных для человеческого глаза искажений — так называемых состязательных (adversarial) атак, способных вызывать критические ошибки в работе сложных нейросетевых систем.

Состязательные атаки — вызов для нейросетей будущего

Юлия Задорожная подчёркивает: «Сегодня даже незначительное изменение определённого участка картинки — например, едва заметный аксессуар на одежде — способно вывести из строя целую ИИ-систему. Это не только вопрос корректности описаний, но и фундаментальной безопасности пользователя». Булат Нутфуллин добавляет, что серьёзные последствия неграмотной работы современных моделей могут варьироваться от случайных ошибок в описаниях до вероятных угроз утечки данных в высокочувствительных приложениях.

Значительную часть экспериментов составили так называемые целевые атаки, ориентированные на получение строго ошибочного ответа, и нецелевые, заметно ухудшающие общее качество деятельности модели. Такое тестирование крайне важно, чтобы определить, какие элементы изображения оказывают базовое влияние на выводы современных MLLMs.

Технологические преимущества и архитектура решения

Разработанный программный комплекс проектировался максимально гибким и масштабируемым. Модульная архитектура позволяет запускать его в различных вычислительных средах, что упрощает интеграцию в существующие ИИ-системы. Один из главных плюсов инструмента — автоматизация всех этапов тестирования, что существенно ускоряет анализ и обеспечивает репрезентативность экспериментов.

В нем реализованы десятки сложных атак, превосходя по этому показателю действующие зарубежные и отечественные аналоги. Благодаря открытости подхода, инструмент может в дальнейшем дорабатываться и расширяться внешними разработчиками, что делает его особенно ценным для сообществ специалистов по информационной безопасности и разработчиков ИИ. Новое ПО способно выявлять уязвимости до внедрения MLLMs в критически важные проекты.

Актуальность исследований и перспективы развития

Как отмечает Леонид Дмитриев, вопросы робастности становятся центральной темой во всех современных исследованиях по ИИ. Мультимодальные языковые модели постоянно обновляются, и параллельно совершенствуются методы атак на них — борьба идёт на равных, регулярно открывая новые горизонты для прикладной науки.

Экспериментальные результаты команды МГУ показали, что уязвимости сохраняются даже у самых современных и популярных MLLMs. Причём различия в устойчивости к атакам между самыми топовыми моделями доходят до десятков процентов — это наглядно демонстрирует, что идеального решения пока не существует. Практические выводы, сделанные на материалах COCO, Flickr30k и VQAv2, помогут разработчикам вносить корректировки ещё на этапе обучения и проектирования нейросетей.

Открытая публикация исходных кодов инструментов и полная научная статья готовятся к размещению в ближайшее время. Это создаёт фундамент для дальнейших работ и стимулирует появление новых эффективных средств защиты в перспективных ИИ-отраслях.

Взгляд в будущее: новые стандарты для систем ИИ

Внедрение программных комплексов, подобных этому решению, открывает новую эру в обеспечении надёжности ИИ, способного работать с мультимодальными данными. Системная работа российских учёных делает вклад в развитие международных стандартов для большого числа прикладных областей — от медицины до автономных транспортных средств. Только устойчивые и защищённые MLLMs смогут гарантировать пользователям безопасность и доверие — а значит, развитие новых технологий неизбежно будет учитывать результаты подобного рода исследований.

Как результат, открытость, инновационность и нацеленность на практическую пользу делают проект исследовательской команды особенно значимым — как для научной общественности, так и для ИТ-индустрии в целом.

Источник: scientificrussia.ru

Другие новости