На ИТ-конгрессе и выставке «Форум Будущего» в рамках секции «Кибербезопасность», организатором которой выступил УЦСБ, прошел круглый стол «Искусственный интеллект в информационной безопасности».
Участие в дискуссии приняли заместитель генерального директора по научно-технической работе УЦСБ Николай Домуховский, инженер предпродажной поддержки Kaspersky Егор Хозяинов, руководитель проекта «Продукты информационной безопасности и коммерческий SOC» ЭР-Телеком Холдинг Андрей Телицын, руководитель направления кибербезопасности СКБ Контур Павел Зимарев, а модератором трека стал эксперт по безопасности, автор блога «Бизнес без опасности» Алексей Лукацкий.
В мире, где цифровые угрозы становятся все более изощренными и многочисленными, искусственный интеллект может стать союзником в борьбе за информационную безопасность. Способность ИИ обрабатывать огромные объемы данных, выявлять сложные паттерны и аномалии, а также адаптироваться к новым угрозам позволяет ему претендовать на роль инструмента для защиты цифровых активов.
Несмотря на все преимущества нейросетей, важно помнить, что их эффективность зависит от качества обучающих данных. Контроль и проверка обучающих выборок являются критически важными для обеспечения точности и надежности моделей ИИ. По мнению Егора Хозяинова, необходимо соблюдать баланс между человеческим и искусственным интеллектом. На текущем уровне развития нейросеть может помочь оптимизировать использование человеческого ресурса, но не способна полностью его заменить. Специалисты по информационной безопасности должны активно участвовать в процессе обучения и использования нейросетей, чтобы обеспечить их корректную работу.
Эксперты подчеркнули, что ошибки, допущенные ИИ, могут повлечь за собой серьезные последствия: неправильные данные или неточные алгоритмы могут привести к финансовым потерям, угрозам безопасности и даже человеческим жертвам. ИИ становится все более автономным, но важно не забывать о том, что именно человек должен контролировать и корректировать его действия, а также перепроверять данные, поступающие от нейросети.
«В будущем мы будем видеть все больше и больше предиктивной аналитики для работы технологического оборудования, и это уже сейчас довольно часто применяется на практике. Однако развитие в направлении выявления проблем информационной безопасности будет идти медленнее, так как это технически сложнее реализовать», — отметил Николай Домуховский.Эксперты также обсудили важность использования проверенных и доверенных моделей для создания безопасных систем, а при применении внешних моделей необходимо убедиться в их надежности, используя механизмы сквозного протоколирования.
«Работая с внешними данными, важно помнить о случаях компрометации и контролировать целостность данных, не рекомендуется использовать внешние датасеты для критичных разработок», — заявил Андрей Телицын.В ходе дискуссии участники круглого стола отметили, что злоумышленники довольно часто используют ИИ в массовых атаках и фишинговых рассылках, фейковых видео и голосовых атаках. Более того, появляются случаи мошенничества с применением ИИ в электронном документообороте. Однако Павел Зимарев подчеркнул, что и для защиты от кибератак в таких системах можно успешно использовать технологии ИИ. Важно оперативно отслеживать тенденции использования нейросетей со стороны атакующих и своевременно подстраивать системы кибербезопасности под актуальные угрозы.
Видеозапись дискуссии можно посмотреть по ссылке.