|
В современных условиях для выявления киберугроз в компьютерных сетях активно применяются системы обнаружения вторжений, интегрирующие методы машинного обучения. Подобные решения демонстрируют высокую эффективность при детектировании аномалий, однако их надежность может быть существенно снижена в случае реализации атак отравления, направленных на компрометацию обучения. В данном исследовании проводится детальный анализ моделей и алгоритмов подобных атак, а также оценивается их влияние на работу защитных механизмов. Методологическая основа работы включает моделирование атак отравления данных с последующей оценкой производительности систем с использованием классических метрик: точности, полноты и F-меры. Ключевая новизна исследования заключается в комплексном подходе. Рассматриваются различные алгоритмы машинного обучения, применяемые для обнаружения аномалий, включая: одноклассовые машины с опорными векторами, случайный лес и глубокое машинное обучение. Впервые проведено сравнительное тестирование нескольких систем под воздействием целенаправленных атак отравлением, что позволило выявить их критические уязвимости. Результаты экспериментального анализа подтвердили, что исследуемые системы подвержены влиянию атак отравления, что приводит к значительному снижению их детектирующей способности. В частности, наблюдалось падение F-меры на 15–30% в зависимости от типа атаки и используемой модели. Полученные данные подчеркивают необходимость разработки более устойчивых методов обучения, устойчивых к состязательным воздействиям, а также модернизации существующих систем обнаружения вторжений с интеллектуальными классификаторами. Работа вносит вклад в развитие защитных механизмов, предлагая не только анализ угроз, но и направление для дальнейших исследований в области повышения устойчивости алгоритмов машинного обучения систем обнаружения вторжений в условиях атак отравлением.
Ключевые слова:кибербезопасность, системы обнаружения вторжений, атаки отравлением, компонент машинного обучения, модели и алгоритмы.
|