Особенно важно очищать кэш и временные данные, если устройство с искусственным интеллектом (ИИ) используется несколькими людьми. Об этом в беседе с RT рассказал старший преподаватель кафедры инструментального и прикладного программного обеспечения РТУ МИРЭА Андрей Рыбников.
По его словам, научные исследования показали, что ИИ-модели могут быть подвержены атакам, при которых могут извлекаться пользовательские данные.
«Злоумышленники способны получить доступ к информации, которую пользователь вводил в систему. Особенно уязвимы модели, обученные на открытых источниках без строгой фильтрации, а также те, которые продолжают обучение на пользовательских запросах», — отметил Рыбников.
Как пояснил специалист, при использовании ИИ-сервисов у пользователя должно быть понимание, где и как обрабатываются его запросы. Особенно речь идет про зарубежные сервисы.
При этом, один из самых безопасных вариантов — применение локальных ИИ-решений, поскольку подобные модели работают автономно и передают данные в облако. Также помочь от утечки может ручная фильтрация вводимых данных: Рыбников рекомендовал удалять личные имена, контактные сведения, номера документов и другие чувствительные фрагменты.
В этой связи пользователям также может помочь шифрование файловой системы, которое можно включить с помощью встроенных средств Windows, macOS или Linux.
Ранее в России предсказали влияние ИИ на профессии в будущем. Российский парламентарий Светлана Бессараб предположила, что кассиры и водители могут исчезнуть из-за влияния новой технологии. Кроме того, она спрогнозировала сокращение IT-отрасли.