В США создали «отраву» для моделей ИИ, которых незаконно обучают на изображениях

Специалисты Чикагского университета выпустили Nightshade 1.0 — инструмент, предназначенный для наказания недобросовестных создателей моделей машинного обучения, которые обучают свои системы на данных, предварительно не получив разрешения. ferra.ru »

2024-1-22 13:30