Совет по надзору призывает Meta обновить правила для контента, генерируемого ИИ

Tech News » Совет по надзору призывает Meta обновить правила для контента, генерируемого ИИ
Preview Совет по надзору призывает Meta обновить правила для контента, генерируемого ИИ

Совет по надзору в очередной раз настоятельно призывает Meta пересмотреть свои правила в отношении контента, создаваемого искусственным интеллектом. На этот раз Совет предлагает Meta создать отдельное правило для ИИ-контента, независимое от существующей политики по борьбе с дезинформацией. Среди прочих рекомендаций — инвестиции в более надежные инструменты обнаружения и более эффективное использование цифровых водяных знаков.

Эти рекомендации были вызваны инцидентом с ИИ-сгенерированным видео, появившимся в прошлом году. В нем утверждалось, что показаны разрушенные здания в израильском городе Хайфа во время вымышленного конфликта между Израилем и Ираном в 2025 году. Клип, который набрал более 700 000 просмотров, был опубликован аккаунтом, выдававшим себя за новостное агентство, но на самом деле управлялся человеком с Филиппин. После того как о видео сообщили Meta, компания первоначально отказалась удалить его или добавить метку “высокого риска” ИИ, которая четко указала бы на создание или манипуляцию контентом с помощью ИИ. Совет отменил решение Meta, заявив, что этот случай высвечивает несколько областей, где текущие правила компании в отношении ИИ недостаточны.

«Meta должна делать больше для борьбы с распространением вводящего в заблуждение ИИ-генерированного контента на своих платформах, в том числе со стороны неаутентичных или злоупотребляющих сетей аккаунтов и страниц, особенно в вопросах, представляющих общественный интерес, чтобы пользователи могли отличать реальное от поддельного», — говорится в решении Совета. В конечном итоге Meta отключила три аккаунта, связанные с этой страницей, после того как Совет выявил «очевидные признаки обмана».

Одна из ключевых рекомендаций Совета заключается в том, чтобы Meta разработала специальное правило для ИИ-генерированного контента, отдельное от политики дезинформации. По мнению Совета, это правило должно включать конкретные положения о том, как и когда пользователи обязаны помечать ИИ-контент, а также информацию о том, как Meta будет наказывать нарушителей.

Совет также крайне критически отозвался о том, как Meta использует свои текущие метки «Информация об ИИ», отметив, что их применение «не является достаточно надежным или всеобъемлющим, чтобы справляться с масштабом и скоростью распространения ИИ-генерированного контента», особенно во времена конфликтов или кризисов. Было подчеркнуто, что «система, чрезмерно зависящая от самораскрытия использования ИИ и эскалированного рассмотрения (которое происходит редко) для надлежащей маркировки этого контента, не может решить проблемы, возникающие в текущей среде».

По словам Совета, Meta также необходимо инвестировать в более сложные технологии обнаружения, которые могут надежно маркировать ИИ-медиа, включая аудио и видео. Группа добавила, что «обеспокоена» сообщениями о «непоследовательном применении» компанией цифровых водяных знаков к ИИ-контенту, созданному ее собственными инструментами ИИ.

Meta не предоставила немедленного ответа на запрос о комментарии по решению Совета по надзору. У компании есть 60 дней, чтобы официально отреагировать на его рекомендации. Это решение — не первый случай, когда Совет критикует действия Meta в отношении ИИ-контента. Ранее группа дважды называла правила компании по манипулированию медиа «непоследовательными» и критиковала ее за чрезмерную зависимость от сторонних организаций, включая фактчекеров, для выявления проблемного контента. Зависимость Meta от фактчекеров и других «доверенных партнеров» вновь была поднята в этом случае, при этом Совет заявил, что слышал от этих групп, что Meta «меньше реагирует на обращения и опасения, отчасти из-за значительного сокращения возможностей внутренних команд Meta».

Совет подчеркивает, что Meta «должна быть способна самостоятельно проводить такие оценки вреда, а не полагаться исключительно на партнеров, обращающихся к ним во время вооруженного конфликта». Хотя решение Совета по надзору относится к публикации прошлого года, проблема контента, генерируемого ИИ во время вооруженных конфликтов приобрела новую актуальность в ходе последних событий на Ближнем Востоке. С начала ударов США и Израиля по Ирану в начале этого месяца наблюдается резкий рост вирусной ИИ-генерированной дезинформации в социальных сетях. Совет, который ранее намекал на свое желание работать с компаниями, занимающимися генеративным ИИ, включил предложение, которое, похоже, относится не только к Meta.

«Отрасль нуждается в согласованности в помощи пользователям различать обманчивый контент, генерируемый ИИ, и платформы должны бороться со злоупотребляющими аккаунтами и страницами, распространяющими такой контент», — говорится в заключении Совета.

© Copyright 2026 Last tech and economic trends
Powered by WordPress | Mercury Theme