Создание Совета по развитию искусственного интеллекта под руководством президента Казахстана Касым-Жомарта Токаева стало важным шагом в обеспечении цифрового суверенитета страны. Эксперты по кибербезопасности подчеркивают, что главной угрозой для суверенитета в эпоху ИИ является зависимость от иностранных данных и технологий. Использование зарубежных алгоритмов может привести к утрате контроля над экономикой и безопасностью, что специалисты называют цифровой колонизацией.
Цели создания национальной суперкомпьютерной инфраструктуры имеют амбициозный характер. Суперкомпьютер может стать ключевым инструментом для хранения и обработки данных в различных сферах. Однако централизованная система также влечет за собой риски. Кибератака на такой центр может парализовать всю страну, и внутренние угрозы от сотрудников или подрядчиков могут стать причиной утечек.
Чтобы адаптироваться к современным вызовам, необходимо предпринимать превентивные меры, такие как киберучения, построение системы на основе сегментации и привлечение независимых экспертов для тестирования безопасности. Обеспечение кибергигиены является важным аспектом на пути к цифровизации. Уровень кибергигиены в Казахстане сейчас низкий, поэтому требуется обучение граждан правильному поведению в сети, начиная с детского сада.
Президент также высказал опасения по поводу негативного воздействия ИИ на образовательный процесс. Эксперты согласны с тем, что чрезмерная зависимость от ИИ может разрушить навыки критического мышления у молодежи. Вместо того чтобы полностью полагаться на ИИ, необходимо находить баланс, позволяя ему облегчать задачи, не заменяя человеческое мышление.
Ключевой момент в непрерывной цифровизации — это развитие не только технологий, но и людей. Нужно внедрять многофакторную аутентификацию, устанавливать государственные стандарты защиты устройств и начать обучение кибергигиене с раннего возраста. Если эти меры будут приняты, страна сможет не только успешно развиваться в цифровой сфере, но и обеспечить безопасность данных своих граждан.
Говоря о контроле разрабатываемых ИИ, эксперты утверждают, что полное регулирование невозможно, но необходимо устанавливать этические рамки и правила работы с данными. Это поможет ИИ служить интересам народа, не нанося вреда культурным и духовным ценностям. Важно развивать собственные модели и базы знаний, чтобы избежать чуждой идеологии.
В заключение, подход «Не доверяй — проверяй» должен стать основополагающим в работе с ИИ, позволяя находить баланс между развитием технологий и их безопасным использованием.