Исследование безопасности кода, сгенерированного генеративными моделями
В данной работе проводится исследование безопасности кода, сгенерированного различными большими языковыми моделями (LLM). Выполнен сравнительный анализ качества и безопасности кода, создаваемого моделями Chatgpt, Yandexgpt, Gigachat и Opencodeinterpreter. Сравнение проведено на практических задачах, приближенных к реальным задачам разработки программного обеспечения. Проверка кода выполнена вручную и с помощью специализированных линтеров. Результаты показывают, что модель OpenCodeInterpreter демонстрирует наилучшие показатели по безопасности и качеству кода. Однако все модели могут генерировать код с серьезными уязвимостями, например, при работе с криптографическими алгоритмами.
Сборник
Все статьи сборника: