Правительство Великобритании рассматривает возможность обновления закона о «праве на личность», который мог бы обеспечить артистам новые гарантии в противостоянии генеративным моделям искусственного интеллекта, способным имитировать их стили. Согласно информации от Financial Times, правительство Лейбористов сегодня запустило обзор того, как компании искусственного интеллекта обучают свои технологии, используя цифровой контент — процесс, который уже вызвал споры среди создателей в Великобритании и США.
Новая законодательная инициатива на основе полученных результатов ожидается от правительства в течение следующих двух лет. Сообщается, что консультации направлены на запрет разработки инструментов ИИ, которые позволят пользователям воспроизводить — или близко к воспроизводству — изображения, отличительные черты или голоса публичных фигур и групп. В отчете содержатся планы по предоставлению создателям улучшенного механизма прав, что в данном контексте означает, что компании ИИ, такие как OpenAI, могут быть обязаны получать лицензионные соглашения с артистами для использования их защищенного авторским правом материала для сканирования данных.
Тем не менее, министры Великобритании и ЕС должны убедиться, что создатели, которые выбирают опцию выйти из сканирования данных, не подвергаются невольному наказанию, из-за снижения видимости их контента в сети. Объявление о консультациях последовало за выпуском OpenAI инструмента Sora для генерации текстов в виде видео, который был представлен публике 16 декабря и позволяет пользователям генерировать видеоролики длиной до 20 секунд из краткого текстового запроса.
Еще до релиза артисты и создатели контента призвали к правовому вмешательству относительно Sora, многие выразили беспокойство по поводу того, как данные были использованы для обучения этого инструмента. В ноябре группа визуальных художников, кинематографистов и графических дизайнеров, получивших ранний доступ к Sora, выпустила копию инструмента ИИ на открытой платформе и опубликовала резкое осуждение OpenAI, компании, также создавшей ChatGPD. В письме утверждалось, что компания пригласила 300 создателей протестировать продукт, но не удостоила их адекватной компенсацией за их работу — и даже занималась художественной цензурой, всё с целью «арт-ухода» имиджа компании.
В начале этого года более 100 ведущих исследователей в области искусственного интеллекта подписали открытое письмо, в котором выражали беспокойство по поводу возможности того, что генеративный ИИ может подавить независимые исследования. Эксперты предупредили, что непрозрачные корпоративные протоколы, направленные на предотвращение мошенничества, или генерацию поддельных новостей, могут иметь непреднамеренный эффект — независимые исследователи, тестирующие безопасность моделей ИИ, могут быть исключены с платформы или поданы в суд. Письмо призывало известные фирмы, включая OpenAI, Meta и Midjourney, улучшить свою прозрачность и дать аудиторам возможность проверять возможные юридические проблемы, такие как нарушения авторских прав. «Компании генеративного ИИ должны избегать повторения ошибок социальных медиа платформ, многие из которых фактически запретили типы исследований, направленных на привлечение их к ответственности», — говорится в письме.