inteligência artificial, algoritmo

Quando os investigadores da Open AI divulgaram o GPT-2, o seu mais recente algoritmo de produção de texto, chocaram o mundo. Deliberadamente, publicaram uma versão enfraquecida, citando preocupações com o potencial de uso malicioso da ferramenta. Ao fazê-lo, tocaram numa das preocupações trazidas pelo avanço das tecnologias de Inteligência Artificial. A capacidade de gerar informação completamente falsa em texto coerente ou imagem realista parece ameaçar o nosso consenso sobre o que é real e verdadeiro. Num mundo mediado por redes de comunicações e ecrãs, estas tecnologias colocam em causa de forma muito profunda a fiabilidade da informação que consumimos.

Temer a Inteligência Artificial

inteligência artificial, algoritmo
O texto polémico, criado pela versão avançada do GPT-2 (Open AI).

Não divulgamos o nosso modelo completamente treinado por preocupações com o seu potencial uso malicioso. É uma daquelas frases que faz qualquer um parar para pensar. Os investigadores da Open AI revelaram que não estava iria divulgar as versões mais avançadas do seu mais recente algoritmo de produção de texto por estar preocupada com as consequências das suas aplicações. Divulgaram uma versão menos avançada, que em si já representa um grande salto na investigação deste tipo de algoritmos. Esta atitude mostra o potencial destas tecnologias, e leva-nos a refletir sobre as consequências do seu uso. No entanto, a preocupação manifestada talvez esteja mais próxima de um truque de marketing do que uma preocupação real.

O que é que causou esta preocupação? Num dos muitos testes a que submeteram o algoritmo, o incentivo de escrita foi criar um texto a partir de uma ideia contra-intuitiva. Os investigadores desafiaram o algoritmo a responder à questão “porque é que reciclar é mau para o ambiente”. Os resultados surpreenderam. O algoritmo produziu um texto com elevado nível de coerência, a defender a ideia que, de facto, a reciclagem e o ambientalismo são danosos para o planeta. Quererá isto dizer que a inteligência artificial se tornou sentiente e desenvolveu uma consciência anti-ambientalista? Na verdade, não, este foi apenas um acidente estatístico. É algo que os próprios investigadores reconhecem. E que sublinha as reais capacidades da técnica que sustenta este tipo de algoritmos.

Ler sem Compreender

Para quem está de fora, pode parecer tentador atribuir intenção e significado a um algoritmo capaz de produzir textos. Escrever, como sabemos, é um ato consciente, obriga a estruturar pensamentos numa linha coerente, escolher as palavras e organizá-las em frases, transpondo-as para o meio de eleição. Quer seja com uma pena de pato num pergaminho ou teclando com os dedos no ecrã de um smartphone, o ato de escrever, para nós, é definível desta forma. Mas não é assim que uma Inteligência Artificial produtora de texto funciona. Para ela, não há qualquer significado no texto que produz, apenas probabilidades estatísticas.

Quando a investigação em inteligência artificial se debruçou sobre o processamento de linguagem, durante bastante tempo pensou-se que a melhor aproximação seria dotar os algoritmos de conhecimento sobre as palavras, dotando-os dos seus significados e relações. Subjacente a esta visão está a ideia que a IA teria de compreender as palavras, tal como o humano. Percebeu-se que não era o melhor processo. E os investigadores viraram-se para outra aproximação, dependente de análise estatística.

Quantificar a Linguagem

inteligência artificial, algoritmo
Estrutura de uma rede neural (IBM)

Em essência, os algoritmos de processamento e produção linguística são baseados em conjuntos complexos de regras que dependem da análise estatística da frequência de palavras. Colocando a questão de uma forma muito elementar, sabemos que a probabilidade de num texto aparecer a conjugação “a mulher” é muito superior a surgir conjugado como “o mulher”. Daqui é possível inferir uma regra estatística. Sempre que o artigo definido feminino singular “a” surge antes de outra palavra, esta pode ser designada como do género feminino. Este é um exemplo muito simplista, claro. A investigadora Janelle Shane, que experimenta com este tipo de algoritmos, publica regularmente no seu blog AI Weirdness anotações sobre esta técnica.

Estes sistemas utilizam análises estatísticas às prevalências de palavras, identificando padrões que podem ser aplicados à produção de textos. Ou seja, a IA não compreende realmente o sentido e significado das palavras. Apenas conhece a probabilidade das suas distribuições estatísticas. Quando lhe é dado um incentivo de escrita, responde-lhe baseando-se nos padrões estatísticos de uso das palavras relacionadas com as do elemento indutor. Parece a receita para linguagem sem nexo. No entanto, funciona, e é a técnica que sustenta a produção de textos automatizada por algoritmos de Inteligência Artificial. O seu potencial de usos é vasto, indo das traduções automáticas ao processamento de linguagem, passando pela produção automatizada de textos.

GPT-2, A Iteração mais Recente

É uma técnica complexa e computacionalmente intensiva. A análise estatística depende do treino do algoritmo numa rede neural com um grande corpus textual. Nestas coisas, quanto mais dados se tiver, mais afinados são os resultados, e os investigadores da Open AI treinaram o seu em 40 gigabytes de texto, provenientes das mais diversas fontes online. Combinando o desenvolvimento do seu algoritmo com a vasta quantidade de informação a que lhe deram acesso, conseguiram que a sua rede neural produzisse textos com um nível de coerência muito acima do conseguido até agora.

O grande passo dado pela Open AI no GPT-2 está no treino da rede neural. Foi generalista, e não específico ao tipo de perguntas usadas como incentivo à produção de texto. Apesar disso, e das reservas colocadas pelos investigadores, não é complicado ler os textos produzidos e achar que há algo de estranho neles, apesar do seu elevado nível de coerência.

Falso é o Novo Real?

inteligência artificial, algoritmo
Imagens do que nunca aconteceu. A cultura dos memes mostra como é possível enviesar opiniões com meios rudimentares.

Foi este nível de coerência que provocou as reservas dos investigadores. Surpreendeu a capacidade evidenciada pelo algoritmo de produzir um texto contra-intuitivo, que vai em sentido contrário ao senso comum. O potencial para usos danosos é enorme. Não é difícil antever a criação automatizada de notícias falsas, disseminadas por redes sociais ou outros canais utilizando bots. Na verdade, é algo que hoje já acontece. O uso da desinformação online como arma para enviesar e manipular a opinião pública é bem conhecido. As redes sociais são frequentemente criticadas e tomam medidas para diminuir o alcance ou impacto desta utilização.

Investigadores e analistas estão preocupados com as correntes tecnologias de criação de imagens e vídeos artificiais utilizando inteligência artificial, apontando para o potencial de destruição do consenso no real. Sistemas como o GPT-2, capaz de produzir textos falsos mas coerentes, eleva esse risco.

Olá, ELIZA

inteligência artificial, algoritmo
ELIZA, de Stanley Weizenbaum: o primeiro chatbot da história.

O investigador Stanley Weizenbaum foi um dos nomes que deu início ao campo da Inteligência Artificial. No entanto, tornou-se um crítico acérrimo da influência da computação na sociedade. Nos anos 60, Weizenbaum era um entusiasta, trabalhando no MIT para desenvolver o então incipiente campo. E depois, mudou de ideias, abandonando o seu trabalho de investigação. O que é que causou esta mudança? Um algoritmo, hoje considerado muito simples, chamado ELIZA. Este programa permitia a um utilizador conversar com um computador e é considerado o primeiro de todos os chatbots. Por piada, modelou-o como um psicólogo da escola rogeriana.

O seu funcionamento é simples. Ao conversar com um utilizador, repete as palavras que este escreveu na janela de conversa, modificando-as levemente sob a forma de pergunta. Dificilmente um programa inteligente, mas a forma como foi usado assustou Weizenbaum. O que o surpreendeu não foi o funcionamento do seu algoritmo. Foi a forma como quem o utiliza se relacionava com ele. Apoquentou-o especialmente ver a facilidade com que os utilizadores tinham conversas íntimas com um programa que, essencialmente, espelhava o que escreviam. Nasceu aí uma profunda intuição sobre o potencial desumanizador da tecnologia, que moldou a restante carreira deste cientista.

Estaline não Precisou de Inteligência Artificial

inteligência artificial, algoritmo
Um dos mais conhecidos exemplos de manipulação de imagem analógica: a mesma foto de Estaline, manipulada para apagar a presença de Yezhov, após a sua queda em desgraça. Manipular a verdade sem recorrer a inteligência artificial.

Quando se fala dos perigos que a Inteligência Artificial traz para os consensos da visão do mundo, há em jogo um fator similar ao que Weizenbaum detetou nos utilizadores que alegremente confessavam os seus segredos íntimos ao ELIZA. É inegável que as fotos e vídeos produzidos pelos algoritmos GAN são inquietantes. Como poderemos nós confiar em imagens ou vídeos mediados pelo online? O que é que nos garante que são reais? Ou produzidos por algoritmos ao serviço de interesses obscuros ou agências de propaganda? Este é, de facto, um perigo real. Mas focarmo-nos nele é ignorar que a tendência para apropriar-se da história, enviesar pontos de vista, e criar falsos mitos é uma técnica de legitimação de poder tão velha quanto a humanidade.

Não é difícil olhar para o passado e ver inúmeros exemplos de manipulação do consenso sobre a realidade. Mas não lhes chamamos fake news. Propaganda, boatos rumores, ou o mais elegante termo campanhas de desinformação. Há inúmeros exemplos de formas de manipular a opinião pública e o registo histórico sem recorrer a meios computacionais. Foram perpetrados de forma institucional por agentes de serviços de desinformação e contra-espionagem. Ou, de forma selvagem, por grupos de interesse ou operacionais de organizações sombrias, criminosas ou terroristas. Ao longo dos tempos, foi usado um pouco de tudo. Boatos, denegrir caráter, textos a acicatar violência publicados em jornais, livros falsos, ou técnicas laboriosas de manipulação física e química da imagem fotográfica.

Keep it Simple

Por arrepiantes que nos pareça a ideia destas ferramentas de IA nas mãos de agentes de contra-informação russos, hackers ao serviço de quem paga melhor, extremistas de quaisquer quadrantes políticos ou religiosos, é bom recordar que as formas mais eficazes de manipulação da opinião pública não são necessariamente as mais avançadas. Bastam simples textos ou imagens. Muitas vezes rudimentares, mas que toquem em enviesamento de opiniões já presentes na mente de quem as vê. Os estudos na área da psicologia mostram que este reforço é a forma mais eficaz de criar propaganda capaz de manipular opiniões.

O algoritmo GPT-2 é, inegavelmente, um enorme avanço na Inteligência Artificial. No entanto, a preocupação dos investigadores soa mais a auto-elogio profundo do que a um perigo real. As questões de validade e fiabilidade da informação online e nos media não devem ser menorizadas. Especialmente nesta era em que dispomos de ferramentas computacionais capazes de automatizar a manipulação de imagens. No entanto, são mais uma vertente de um enorme arsenal de técnicas de manipulação dos consensos sobre o real.

****Aceite o nosso convite e leia o artigo O Humano no Algoritmo. E clique abaixo, para saber mais!

O pivot digital da Xinhua News Agency está imune ao Deep Fake?