Novo recurso automatiza rastreamento e facilita pedidos de retirada
YouTube – Nas últimas horas, a plataforma confirmou que seu sistema de “detecção de semelhança” passa a incluir celebridades de Hollywood, permitindo que atores, músicos, atletas e outras figuras públicas localizem e solicitem a remoção de deepfakes que utilizem sua imagem sem autorização.
- Em resumo: o algoritmo varre o acervo do site, marca vídeos suspeitos e notifica o dono da imagem.
- Vale destacar: cada solicitação de remoção ainda é avaliada segundo a política de privacidade do YouTube.
Como funciona a detecção de semelhança
A ferramenta, testada com criadores no outono passado e estendida a políticos e jornalistas em março, compara rostos e vozes para identificar conteúdo gerado por IA. Segundo apuração do The Verge, o recurso aparece dentro do painel de controle dos perfis verificados e oferece um botão direto para abertura do pedido de takedown.
“YouTube began testing the feature with content creators last fall; in March, the company expanded the program to politicians and journalists.” – The Verge
Por que importa para criadores, atletas e marcas
Deepfakes não afetam apenas celebridades do cinema: atletas patrocinados, treinadores influentes e marcas de suplementos podem ter campanhas comprometidas por vídeos falsos que distorcem voz ou performance. Ao centralizar a denúncia, o YouTube contribui para proteger reputação, contratos de imagem e, indiretamente, a confiança do consumidor em um mercado que movimenta bilhões de dólares em patrocínios e merchandising.
Para quem vive de conteúdo — inclusive reviews de wearables, rotinas de treino ou lançamentos esportivos —, a medida reduz o risco de golpes que associem indevidamente profissionais a produtos milagrosos, prática já combatida por órgãos de saúde como o MedlinePlus.
O que você acha? A nova política será suficiente para frear a onda de deepfakes no esporte e no entretenimento? Para continuar por dentro de novidades em tecnologia e gadgets, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / The Verge