Эксперт объяснил, как защитить запросы к ИИ от утечки данных
Россиянам, которые активно работают с нейросетями, стоит задуматься о защите своих запросов – хакеры могут получить доступ ко всей введенной информации. Об этом в интервью RTпредупредил старший преподаватель РТУ МИРЭААндрей Рыбников. По его словам, ИИ-системы уязвимы для атак. При определенных условиях злоумышленники способны получить данные, которые пользователь вводил ранее. Больше всего риску подвержены те ИИ-модели, которые обучаются на открытых данных или продолжают учиться на пользовательских запросах, отметил Рыбников. При этом он напомнил, что в России действует закон о...
Copyright information of photo and video materials was taken from the website «Tatar inform» , more details in our Terms of Service