Debate sobre Vídeos Falsos e Moderação de Conteúdo
A crescente disseminação de vídeos falsos gerados por inteligência artificial (IA) nas redes sociais reacendeu discussões sobre a moderação de conteúdo. O Oversight Board, um grupo independente que supervisiona as decisões da Meta, alertou que a empresa deve fortalecer seus mecanismos de controle diante da rápida expansão desse tipo de material em suas plataformas.
Recentemente, o conselho criticou a Meta por manter um vídeo gerado por IA que mostrava danos fictícios na cidade de Haifa, em Israel, atribuídos a ataques iranianos, sem qualquer aviso sobre a natureza artificial do conteúdo. Essa situação expõe falhas na abordagem da empresa em relação a conteúdos manipulados, especialmente em contextos de conflito armado.
Os especialistas do conselho destacaram que o aumento de vídeos falsos relacionados a guerras e crises internacionais está dificultando a capacidade do público de distinguir entre fatos e criações digitais. A falta de mecanismos robustos pode resultar em uma perda generalizada de confiança nas informações disponíveis online.
A Meta anunciou que adicionará um rótulo ao vídeo em questão dentro de sete dias e que seguirá as recomendações do conselho em casos semelhantes no futuro.
Origem do Problema com Vídeo Viral
A análise do Oversight Board foi desencadeada por um vídeo viral publicado em junho do ano passado por uma página do Facebook nas Filipinas, que se apresentava como um veículo de notícias. O vídeo mostrava cenas de destruição em Haifa, supostamente causadas por forças iranianas, mas investigações posteriores revelaram que as imagens eram falsas e criadas com ferramentas de IA.
Esse conteúdo fazia parte de uma série de vídeos manipulados que circularam nas redes sociais após o início do conflito, acumulando pelo menos 100 milhões de visualizações em diversas plataformas. Apesar das reclamações e da identificação de que o vídeo não retratava eventos reais, a Meta inicialmente optou por não rotulá-lo ou removê-lo.
Critérios de Moderação em Questão
Em resposta às críticas, a Meta argumentou que o vídeo não necessitava de aviso, pois não representava um risco físico imediato. No entanto, o Oversight Board considerou esse critério excessivamente restritivo, sugerindo que conteúdos gerados por IA sobre guerras ou crises geopolíticas deveriam receber um aviso de alto risco, indicando claramente sua origem artificial.
Os especialistas também apontaram que o modelo atual da Meta depende em demasia da ação dos usuários, baseando-se principalmente em declarações dos criadores de conteúdo ou em denúncias feitas à equipe de moderação.
Preocupações com a Escala do Problema
O Oversight Board expressou preocupação com a abordagem atual da Meta, afirmando que ela não é suficiente para lidar com a velocidade e o volume de conteúdos gerados por IA. O grupo enfatizou a necessidade de rotular vídeos artificiais de forma mais proativa, especialmente em períodos de crise, quando o engajamento nas redes sociais tende a aumentar.
O relatório concluiu que o sistema atual da Meta não é robusto o suficiente para acompanhar a produção em larga escala de conteúdo gerado por inteligência artificial. Criado em 2020, o Oversight Board visa revisar decisões de moderação em plataformas como Facebook, Instagram e WhatsApp, mas analistas questionam a efetividade das recomendações do conselho nas políticas da empresa.
Fonte por: It Forum
