По словам источников в компании, анонсированный в мае прошлого года Media Manager задумывался как инструмент, позволяющий авторам указывать свои предпочтения и запрещать обучение моделей ИИ на своем контенте. Предполагалось, что инструмент сможет идентифицировать защищенный авторским правом текст, изображения, аудио и видео, отражая предпочтения авторов «по многим источникам».
Также, считают источники, Media Manager должен был защитить OpenAI от возможных юридических проблем, связанных с интеллектуальной собственностью. Однако компания пропустила установленный ею же срок запуска инструмента «к 2025 году» и не предоставила никаких обновлений о его прогрессе.
Разработка Media Manager, судя по всему, не была приоритетом внутри OpenAI. Один из бывших сотрудников компании заявил, что не помнит, чтобы кто-то работал над этим инструментом. Член юридической команды, занимавшийся Media Manager, перешел на позицию консультанта. Эксперты также выражают сомнения в том, что Media Manager сможет решить все проблемы, связанные с использованием ИИ и интеллектуальной собственностью.
По мнению специалистов, даже крупные платформы, такие как YouTube и TikTok, испытывают трудности с идентификацией контента в больших масштабах. Кроме того, некоторые специалисты считают, что Media Manager может переложить бремя контроля за обучением ИИ на создателей контента. Системы отказа могут также не учитывать трансформации контента: например, уменьшение размера изображения или его обрезка.
Сейчас OpenAI предлагает авторам несколько способов отказа от обучения ИИ, включая форму для удаления работ из будущих наборов данных и блокировку веб-сканирующих ботов. Однако эти методы были раскритикованы как неэффективные и неполные, поскольку отсутствуют специальные механизмы отказа для письменных работ, видео или аудиозаписей. Форма для отказа от изображений требует загрузки копии каждого изображения, что является обременительным процессом.