Более 10 млн россиян могут столкнуться с опасностью раскрытия личной информации при использовании поддельных зарубежных нейросетей, таких как ChatGPT, Dall-E, Midjourney и др. Об этом РИА Новости рассказал директор по LLM-продуктам MTS AI Сергей Пономаренко.
«Пользователи, которые используют ChatGPT, Dall-E, Midjourney и другие иностранные большие языковые модели (LLM) через сторонние сервисы, рискуют не только вместо «оригинала» получить открытую модель низкого качества, но и раскрыть свои конфиденциальные данные. Компания считает, что таких людей в России более 10 млн», – сказал Сергей Пономаренко.
В настоящее время российским пользователям становится все сложнее пользоваться международными сервисами, в том числе из-за проблем с оплатой. Мошенники, пользуясь этой ситуацией, создают чат-боты и сайты, которые обещают упростить доступ к системе. Однако вместо оригинальных моделей пользователи получают минимальную версию продукта, которая значительно уступает флагманской или другим моделям по качеству.
Эксперт добавил, что при использовании искусственного интеллекта необходимо учитывать аспекты цифровой грамотности и безопасности. Понимание принципов работы нейросетей, их ограничений и специфики позволяет более эффективно и безопасно взаимодействовать с технологией. Так, например, не стоит подобным сервисам предоставлять персональные данные и конфиденциальную информацию, содержащую коммерческую тайну. Для такой работы необходимо использовать лишь те чат-боты и сервисы, которые были одобрены вашим руководством. Следует также учитывать, что генеративные сети могут оперировать устаревшими данными и не всегда предоставляют актуальную информацию. Их объем данных ограничен. Поэтому, даже если результат кажется достоверным и релевантным, его следует перепроверить с помощью независимых источников.