A rede social Facebook anunciou recentemente a remoção automatizada de 8.7 milhões de imagens. De acordo com os responsáveis, estas violavam políticas sobre conteúdos ligados à exploração sexual  de crianças. Uma notícia que em si é arrepiante, pela quantidade de informação detetada e eliminada, mas que se torna mais interessante pela forma como esses conteúdos foram detetados e eliminados. Utilizando algoritmos de machine learning, automatizaram algumas operações de moderação.  

Tornar a Rede Social mais Segura utilizando Inteligência Artificial

Um dos problemas constantes que as redes sociais enfrentam é o da moderação de conteúdos. O Facebook emprega uma quantidade não divulgada de moderadores, que têm como tarefa analisar todo o conteúdo que potencialmente viole as regras da rede. É um trabalho notoriamente difícil e complexo, que coloca os trabalhadores em contato com os piores comportamentos humanos. Pornografia explícita e violência extrema são constantes. As equipas de moderadores têm de visualizar e eliminar vídeos violentos de organizações terroristas com assassinatos macabros, ou atos criminosos filmados ao vivo através do live. Chegam a testemunhar suicídios ou outros atos violentos transmitidos ao vivo. É uma atividade traumática, dura e difícil, que deixa sequelas naqueles que a desempenham. A disponibilidade de ferramentas que automatizam este tipo de moderação é uma enorme mais valia para estas empresas.

Recorrendo à inteligência artificial, o Facebook procura automatizar a moderação de conteúdos. Os seus algoritmos comparam automaticamente os dados enviadas pelos utilizadores com uma base de dados de fotos de exploração infantil. Elimina as imagens suspeitas e notifica, em caso de conteúdos que indiciem crime, autoridades competentes. Não divulgam que tecnologia específica utilizam, mas é seguro apostar que serão algoritmos de aprendizagem automática (machine learning). Treinados com bases de dados de imagens ofensivas, são capazes de analisar e reconhecer padrões similares em ficheiros enviados para a rede social.

Falsos Positivos: O Problema da Fiabilidade

Estrutura de aprendizagem automática (machine learning) em Inteligência Artificial (imagem: Gauss Algorithmic)

No entanto, esta automatização não está isenta de problemas. Tem sido apontado que a triagem automática identifica muitas situações de falsos positivos. Um exemplo são fotografias pessoais da intimidade familiar, partilhadas em grupos restritos, que têm sido eliminadas por terem algumas similaridades com o tipo de imagens de exploração sexual infantil nas quais a IA foi treinada. Noutras, são imagens violentas mas de valor histórico que são eliminadas pelos algoritmos, despertando protestos de académicos e ativistas. Há um caso muito conhecido: a foto, famosa, da Napalm Girl, uma rapariga que foge, nua, numa estrada depois de ser atingida por um ataque de napalm durante a guerra do Vietname. Um documento histórico arrepiante que é barrado pelos algoritmos de análise de imagem do Facebook.

Apesar destes falsos positivos, o Facebook não desiste da implementação destas tecnologias. E corrige à posteriori os erros apontados. Há vantagens na deteção de conteúdos com Inteligência Artificial. Permite detetar mais rapidamente conteúdo que viole as regras da rede social. E, no tratamento de conteúdos violentos, diminui o potencial traumático sobre os moderadores humanos. Algo que é fundamentalmente um problema ético, mas na análise fria da economia digital, é essencialmente financeiro. Colaboradores e ex-colaboradores que sofrem de stress pós-traumático devido aos conteúdos que tiveram de moderar têm levantando processos em tribunal, prejudiciais à imagem pública e à contabilidade da rede social.

Fiabilidade da Deteção Automatizada de Conteúdos: Um Problema Europeu

Inadvertidamente, as dificuldades notadas na aplicação destes algoritmos de inteligência artificial para deteção automatizada de conteúdos sublinham uma das maiores críticas que se faz às propostas da União Europeia na reforma da lei comunitária sobre direitos de autor e propriedade intelectual na era digital. A diretiva europeia sobre Direitos de Autor foi recentemente aprovada em Bruxelas, e está agora em discussão antes da votação final pelo parlamento europeu.

Uma das propostas mais polémicas está no artigo 11.º, que estabelece a obrigatoriedade dos sites que albergam conteúdo utilizarem sistemas automatizados de filtros que comparem todos os uploads, em busca de violações à propriedade intelectual. Um sistema que tem levantado críticas, por várias razões. Este tipo de filtros depende de ferramentas de Inteligência Artificial  que são difíceis de criar e têm custos elevados. Isto implica que apenas os gigantes da internet terão condições financeiras para os implementar. E impede que pequenas empresas concorram com novos serviços aos já estabelecidos no mercado, por não terem capacidade financeira para cumprir com a lei europeia. Com isto, a competitividade da economia digital fica comprometida.

Competitividade e Liberdade de Expressão

Se há impactos a nível da competitividade, com o potencial cimentar da posição das maiores empresas da internet e a impossibilidade de novos serviços surgirem no espaço económico europeu, a questão dos falsos positivos levanta problemas mais graves. Pode, em última análise, ser considerada uma forma de supressão de liberdade de expressão. A análise automática a conteúdos por algoritmos é notória pela sua baixa fiabilidade. Levará a que muitos conteúdos sejam bloqueados por engano, sem que hajam sistemas claros para corrigir esses erros. Ou, os detentores de direitos de autor poderão implementar solicitações de propriedade intelectual demasiado abrangentes. Desta forma, pode implicar a retirada de conteúdos originais ou de domínio público ou originais por serem semelhantes a obras protegidas, das quais detenham direitos.

Esta experiência da maior rede social mostra-nos duas coisas. O potencial de algoritmos de machine learning aplicado à automatização de moderação online é enorme. Acelera o trabalho de deteção de conteúdos violentos, pornográficos ou de exploração infantil. Facilita o trabalho de moderadores humanos, cuja exposição a estas imagens e vídeos é traumática.

No entanto, os falsos positivos colocam em questão a fiabilidade destes algoritmos. Em domínios específicos este tipo de erros pode ser tolerável, mas em usos abrangentes levantam mais problemas do que os que resolvem. Algo que deveria estar em mente dos proponentes do artigo 11.º da Diretiva Europeia de Direitos de Autor. Este depende de tecnologias ainda pouco fiáveis, acessíveis apenas aos grandes da internet. O seu uso vai colocar em perigo a tradição liberal europeia da liberdade de expressão.

Aceite o nosso convite e leia o artigo Economia Digital, Inteligência Artificial e Fake News: Desafios Europeus a curto prazo.