Logo do a-eye a-eye

Moderação de imagens e vídeos

Detectar NSFW, gore, CSAMMaterial de abuso sexual infantil, zoofilia e mais
Detectar CSAMMaterial de abuso sexual infantil conhecido, desconhecido e gerado por IA
100.000 análises grátis por mês
Compatível com imagens, vídeos e GIFs
Testar grátis
Image beach_photo.jpg
Video clip_party.mp4
GIF animation.gif
99.7% ACC
< 500ms
SAFE 94.2% nsfw_classifier_v3
12ms
Uploaded image preview

Inicializando...

Estimando idade...

Câmera indisponível

Verificação de idade

Proteção antifraude integrada em cada verificação
Fluxo guiado passo a passo com suporte multilíngue
Garantir conformidade com leis internacionais de proteção infantil
Privado e seguro
Testar agora

Análise avançada de comportamento

Detectar bots, vendas ilegais e promoções ilícitas
Sinalizar grooming, padrões predatórios e violações dos Termos de Uso
Acionar automaticamente revisões de conta e aplicar banimentos, suspensões e mais
Fale conosco

Preços

Pague apenas pelo que usar.

$ 0.10 / 1.000 análises
  • Sem gasto mínimo
  • Suporte a vídeo e GIF
  • Moderação de conteúdo e detecção de idade
  • 100.000 análises grátis por mês
Começar

Integração

Três linhas. Só isso.

JPEGPNGGIFWebPAVIFMP4WebMMOV
Python cURL Node.js
200 OK · 134ms
INPUT
OUTPUT
English EN Français FR Русский RU Português PT Español ES Nederlands NL Italiano IT Deutsch DE