Этот новый инструмент “отравления” данных позволяет художникам дать отпор генеративному искусственному интеллекту.Generative AI. Copywrite.

Да, это крутая идея. Борьба против машин (ИИ) уже началась, пока только на фронте креативной индустрии (авторы, художники, артисты...). А где же юристы? Где законы о защите интеллектульной собственности?

Что происходит: новый инструмент позволяет художникам вносить невидимые изменения в пиксели в своих произведениях перед их загрузкой в Интернет, поэтому, если их вставить в обучающий набор ИИ, это может привести к хаотичным и непредсказуемым поломкам полученной модели.

Почему это важно: инструмент под названием Nightshade предназначен для борьбы с компаниями, занимающимися искусственным интеллектом, которые используют работу художников для обучения своих моделей без разрешения создателя. Использование его для «отравления» этих обучающих данных может повредить будущим итерациям моделей искусственного интеллекта, генерирующих изображения, таких как DALL-E, Midjourney и Stable Diffusion, сделав некоторые из их результатов бесполезными.

Как это работает: Nightshade использует уязвимость безопасности в генеративных моделях искусственного интеллекта, возникающую из-за того, что они обучаются на огромных объемах данных — в данном случае на изображениях, полученных из Интернета. Отравленные образцы данных могут манипулировать моделями, заставляя их учиться, например, что изображения шляп — это торты, а изображения сумок — тостеры. И прямо сейчас защититься от такого рода атак практически невозможно.

Источник.