AI Этика: Fairly Trained за защиту авторских прав

AI Этика: Fairly Trained за защиту авторских прав

В настоящее время развитие генеративного искусственного интеллекта (AI) сталкивается с ключевым этическим вопросом использования данных, полученных из интернета без предварительного согласия авторов.

Проблема заключается в том, что ведущие компании, такие как OpenAI и Meta, обучают свои модели, используя информацию, собранную в сети, что вызывает неодобрение у многих авторов и художников. Они утверждают, что их авторские права нарушаются, поскольку AI компании используют их работы для обучения своих алгоритмов без явного разрешения. Эта практика вызывает судебные иски со стороны недовольных создателей. С другой стороны, такие компании, как OpenAI, аргументируют свои действия тем, что использование общедоступных материалов для тренировки моделей AI является допустимым в соответствии с установленными прецедентами и необходимо для инноваций и конкурентоспособности США. Тем не менее, в оппозиции этой практике возникает новая организация. Основанная Эдом Ньютон-Рексом, бывшим сотрудником Stability AI, "Fairly Trained" является некоммерческой организацией, целью которой является поддержка концепции заранее полученного согласия от создателей данных для их использования в обучении AI. Они уверены, что достижение взаимной выгоды для авторов и AI компаний возможно через подход, при котором использование данных происходит с согласия их создателей. "Fairly Trained" предлагает сертификацию для AI компаний, которые придерживаются этических практик сбора данных.

Процесс получения сертификации описан на веб-сайте организации и включает в себя ряд этапов, в том числе заполнение онлайн анкеты и предоставление подробного письменного отчета. За сервис сертификации взимается плата из расчета размера годового дохода предприятия. Несколько компаний уже прошли процесс сертификации и стали обладателями сертификата "Licensed Model (L)", среди которых Beatoven.AI, Boomy и другие. Ньютон-Рекс не стал комментировать детали платежей за сертификацию.

Среди советников и поддерживающих организаций "Fairly Trained" значатся известные источники, такие как Том Грубер, бывший технический директор Siri, и Ассоциация американских издателей. Хотя Ньютон-Рекс подчеркивает, что неприбыльная организация не принимает участия в судебных делах, призывает AI компании пересмотреть свои методы и перейти к модели лицензирования данных, чтобы создать взаимовыгодную экосистему для всех участников. Он также утверждает, что платежи за сертификацию не являются запретительными по стоимости и должны покрывать расходы организации.

Таким образом, "Fairly Trained" инициирует новый дискурс в сфере генеративного AI, вызывая к ответу компании, которые занимаются сбором данных для обучения своих моделей без согласия авторов. Эта организация выступает за установление этических стандартов использования данных, при которых уважение к авторским правам и прозрачность практик обучения являются основополагающими элементами в эволюции искусственного интеллекта.

Комментарии

Отлично! Вы успешно зарегистрировались.

Welcome back! You've successfully signed in.

You've successfully subscribed to GPTalk | AI Новости.

Проверьте свою электронную почту для личной ссылки для входа.

Ваша платежная информация была обновлена.

Ваш счет не был обновлен.