Искусственный интеллект — ключ к улучшению безопасности в киберпространстве, считает эксперт

Искусственный-интеллект-—-ключ-к-улучшению-безопасности-в-киберпространстве,-считает-эксперт

Государственная техническая служба проводит исследования по применению искусственного интеллекта для защиты от фишинговых атак. Заместитель председателя правления АО «Государственная Техническая Служба» Улукбек Шамбулов поделился своим мнением о перспективах новых технологий в интервью корреспонденту агентства Kazinform.

– Какие возможности предоставляет искусственный интеллект в области кибербезопасности?

– ИИ позволяет автоматизировать процессы обнаружения и реагирования на угрозы в реальном времени, что значительно ускоряет защиту данных. Он способен анализировать большие объемы информации для выявления потенциально опасных ситуаций. Это помогает эффективно предупреждать инциденты, а не только реагировать на них. Помимо этого, благодаря возможности обучения на новых данных, ИИ позволяет системам кибербезопасности адаптироваться к появляющимся угрозам.

– Как ИИ может улучшить работу в сфере кибербезопасности?

– Применение искусственного интеллекта значительно повышает точность выявления угроз, сокращает количество ложных тревог и автоматизирует рутинные задачи. Это позволяет специалистам по безопасности сосредоточиться на наиболее сложных и важных задачах. ИИ способен предложить новые методики анализа угроз и обеспечения защиты, делая системы более гибкими и адаптивными.

– Как работает искусственный интеллект в сфере кибербезопасности?

– ИИ использует алгоритмы машинного обучения и анализа данных для создания моделей, способных определять подозрительное поведение и аномалии в сетевом трафике. После обучения на исторических данных об атаках системы ИИ могут мониторить текущие данные, обнаруживая потенциальные угрозы и реагируя на них автоматически, например, блокируя подозрительный трафик или оповещая специалистов.

– Какие риски существуют при использовании искусственного интеллекта?

– Использование ИИ в кибербезопасности не лишено рисков. Один из основных — это возможность «черного ящика», когда принятие решений основано на алгоритмах, трудных для понимания. Это усложняет отладку систем и снижает доверие к их работе. Кроме того, существует риск обмана злоумышленниками, которые могут использовать новые методы атак. Поэтому необходимо регулярно обновлять и обучать модели ИИ для адаптации к новым условиям и угрозам.

– Как обеспечивается защита от непредвиденных обстоятельств при работе с искусственным интеллектом?

– Для обеспечения безопасности при работе с ИИ применяются мониторинг, аудит, тестирование и верификация систем. Важно также регулярное обновление и обучение моделей для адекватного реагирования на новые вызовы. Эффективная защита от непредвиденных сбоев включает в себя меры контроля и поддержания работоспособности систем ИИ.

Напомним, что в Казахстане разработана концепция развития искусственного интеллекта на 2024-2029 годы, а также работают над законопроектом по регулированию применения ИИ в стране. Развитие этой области продвигается на мировом уровне, в том числе в Евросоюзе, где вступил в силу закон о нормативном регулировании систем на основе искусственного интеллекта с целью снижения рисков и обеспечения безопасности.