O Facebook decidiu ser mais transparente sobre como lida com "questões complexas". Textos serão publicados para esclarecer aos usuários como a rede social age e se posiciona diante de temas complicados. O terrorismo é o assunto do primeiro post no blog da plataforma (br.newsroom.fb.com/news) e a Inteligência Artificial (IA) é uma das ferramentas usadas para combatê-lo. O Facebook afirma que as mídias sociais não podem dar voz a terroristas e, para isso, também conta com pessoas trabalhando na revisão dos conteúdos compartilhados na comunidade e parcerias externas.


De acordo com Monika Bickert, diretora global de Políticas de Conteúdo, e Brian Fishman, gerente de Políticas Contra Terrorismo, a posição do Facebook é simples e direta: ''não há espaço para terrorismo. Nós removemos terroristas e posts que apoiam o terrorismo assim que ficamos cientes deles. Quando recebemos denúncias de potenciais posts sobre terrorismo, nós os revisamos com urgência. E nos raros casos em que identificamos evidências de uma eminente ameaça, nós informamos as autoridades na mesma hora''.

Inteligência Artificial no combate ao terrorismo

Segundo os porta-vozes, o Facebook usa Inteligência Artificial para interromper o compartilhamento de publicações com conteúdo terrorista. Embora o uso da tecnologia seja recente, o recurso está mudando a forma como são eliminadas as propagandas e os perfis com esse caráter na rede social. Alguns esforços tecnológicos têm foco em organizações como o ISIS e a Al Qaeda: o Facebook usa identificação de imagens, interpretação de textos, remoção de conteúdo a partir da análise de comportamento, reincidência e colaboração multi-plataformas. Entenda melhor cada tópico:
Identificação de imagens
Quando o usuário tenta fazer um post com uma imagem ou vídeo, o sistema os compara com outras mídias previamente bloqueadas na rede social por abrangerem conteúdo vinculado a atividade terrorista. Se a plataforma já apagou um vídeo sobre a Al Qaeda, é possível impedir que essa mídia seja publicada novamente.
Interpretação de textos
No caso de interpretação de textos, também são usados posts previamente removidos por promover ou apoiar organizações como a Al Qaeda. O algoritmo, que está em fase inicial de aprendizagem, é capaz de detectar os sinais de uma mensagem terrorista.
Remoção por comportamento
De acordo com estudos do Facebook, terroristas tendem ao radicalismo e à ação em grupos. Esse comportamento costuma ser refletido no mundo virtual. Dessa forma, quando são identificadas páginas, grupos, posts ou perfis com conteúdo suspeito, algoritmos são usados para identificar material relacionado. Ou seja, se uma conta pessoal tem muitos amigos cujos perfis foram desativados por terrorismo, há uma grande chance de o dono do perfil estar ligado a esse tipo de atividade.
Reincidência
Com o uso da Inteligência Artificial, o processo para identificar contas falsas reincidentes ficou muito mais ágil. Com isso, é reduzido cada vez mais o período de tempo em que o perfil pessoal de um terrorista fica ativo.
Colaboração multi-plataformas
Além de impedir que mensagens de cunho terrorista se espalhem no próprio site, o Facebook começou a trabalhar em sistemas para impedir o compartilhamento desse tipo de conteúdo em todas as suas plataformas, incluindo WhatsApp e Instagram.

Expertise humana e parcerias

A rede social, porém, não dispensa a inteligência humana nesse combate. Segundo a plataforma, a Inteligência Artificial e os algoritmos ainda não superam a capacidade de pessoas na hora de compreender um contexto. O Facebook conta com as denúcias desses conteúdos feitas por usuários e com uma equipe de três mil revisores para avaliar esses posts. Além de um time de mais de 150 especialistas, como ex-procuradores e ex-agentes policiais, focados apenas nessa questão.
Para manter o terrorismo fora, não somente do Facebook, mas também de outras plataformas, foram feitas parcerias com diferentes empresas (como Microsoft, Twitter e YouTube), pesquisadores e governos.