Se você é um jornalista, comunicador, sociólogo ou analista político, em algum momento nos últimos três ou quatro anos, provavelmente parou para refletir sobre o acirramento de ânimos cada vez mais presente nas discussões e exposições pessoais nas redes sociais. No Brasil, experimentamos esse fenômeno com maior intensidade nas eleições presidenciais de 2014. E ele de alguma forma acabou sendo associado ao momento político delicado, supostamente enviesado por antagonismos ideológicos. Chegou-se a atribuí-lo mesmo a um efeito dominó de insatisfação popular, que começara um ano antes, nas manifestações de junho de 2013.

Se servia para o cenário brasileiro, isso não poderia explicar, no entanto, o fenômeno similar que aconteceria a seguir em outras partes do mundo. O Brexit… A improvável eleição de Donald Trump… E não, não digo isso do ponto de vista das escolhas em si, mas da FORMA como as pessoas se agarraram a essas escolhas. Da voracidade com a qual passaram a defendê-las. Mais ainda, embebidas num caldo turvo que acabou ganhando nomes pós-modernos, como pós-verdade, fakenews, como se fossem necessárias novas definições para a mentira e a manipulação.

Correntes de pensamento legítimas passaram a digladiar-se num território fértil onde falta conhecimento

No processo, correntes de pensamento legítimas, à esquerda ou à direita, passaram a digladiar-se num território fértil onde falta conhecimento, conteúdo e contexto, mas sobra a ironia rasa, baseada na exacerbação dos defeitos do outro, na caricatura da opinião alheia. Chegamos à era da informação fácil, ao ápice do cidadão broadcaster; gerador de conteúdo, tanto quanto consumidor. O que era para se transformar numa maravilha proporcionada pela tecnologia virou na essência algo tão superficial e desolador que sua melhor manifestação visual ganhou o nome de meme…

É bem verdade que as ideias não nasceram do vácuo. Elas já estavam aí. Apenas permeavam espaços de silêncio que os inocentes úteis evitavam ultrapassar. E evitavam por conhecerem a própria inaptidão para juízos contextualizados. Por vergonha de exporem suas entranhas concatenadas a partir de lógicas desestruturadas.

Mas o que houve para que os espaços de silêncio se rompessem dando lugar à atual gritaria insuportável de intolerância e agressividade? Apenas uma coisa – uma das grandes – mudou e vem mudando tudo nos últimos anos: a Internet. Mas não qualquer Internet. A Internet da conexão permanente, do celular conectado, do acesso fácil que liga em redes (sociais) indivíduos de todo o planeta e faz com que eles se agrupem em grupos segundo seus interesses, gostos, opiniões e similaridades.

Por acaso a vilania acabou sendo atribuída ao Facebook, por sua natureza de socialização dos contatos; mas poderia ter acontecido com qualquer um de seus antecessores ou concorrentes. Como de fato acontece, nas longas e infrutíferas discussões de todo espaço aberto a comentários da Internet.

O fenômeno foi abordado a partir do conceito que ficou conhecido como filtros-bolha: a opção dos indivíduos por determinados conteúdos e opiniões apenas reforçaria aquilo que eles já sentem, fazem ou pensam. Nas plataformas digitais, isso cria filtros que retroalimentam as mesmas escolhas, criando um círculo vicioso. Os usuários são menos expostos a pontos de vista conflitantes com os seus, e por isso são isolados intelectualmente em suas bolhas de informação e cultura.

No entanto, o problema é bem maior. Os filtros-bolha são apenas um efeito, não a causa.

Primeiro, é preciso avaliar qual foi a grande mudança de fato trazida pela Internet nos últimos, digamos, 10 anos. Não foi comunicação rápida, que já existia desde o rádio e a TV. Ou a interatividade, que surgiu praticamente junto com a Web, há 20 anos. Tampouco as redes e mídias sociais, que já eram redes sociais quando duas ou mais pessoas se reuniam em roda de conversa ou numa assembleia sindical. Elas apenas não eram digitais.

Os filtros-bolha são apenas um efeito, não a causa.

Provavelmente não foi qualquer uma dessas mudanças. A verdadeira novidade da socialização em rede, na era digital, é que esse processo passou a ser organizado não por pessoas, por mediadores, mas por algoritmos!

Um dos primeiros a identificar o problema foi o ativista político estadunidense Eli Pariser, autor de “The Filter Bubble”. Ele é o co-fundador e chefe executivo da Upworthy, presidente da MoveOn.org e co-fundador da Avaaz.org.

Cada vez mais, nas plataformas digitais, as interações humanas, das nossas relações de amizade, interesses de consumo a avaliações de crédito e de saúde, têm sido administradas por porções de códigos e peças equivalentes a programas de computador. Eles determinam exatamente o quê e quando vamos ver.

Os anônimos criadores desses algoritmos, certamente bastante versados em linguagens de programação, matemática e ciências correlatas, atualmente concebem-nos de tal forma pretensiosos que chegam a tentar estabelecer, por antecipação, que notícia mais nos interessará, com quem potencialmente teremos mais afinidade ou até que prato provavelmente vamos preferir num restaurante. Mas as ciências das relações humanas, da política à sociologia, não integram o código. São reconhecidos apenas os padrões.

Agora pare e pense sobre como trabalham os computadores. Por mais complexos que sejam, todo hardware e software até hoje concebido foi programado para reduzir as unidades computacionais a zeros e uns. Ainda não temos, em aplicações práticas, computadores quânticos, lidando com estados intermediários. Todo o fluxo de dados atual em algum momento é reduzido ao código binário. Essa é a língua nativa dos computadores e da programação.

Não bastasse a linguagem natural das AI’s (inteligências artificiais) por trás das decisões algorítmicas, outro fator é a própria matemática. Um algoritmo atuando pode até estabelecer um leque de decisões estratificadas por probabilidades. Mas a sobreposição de algoritmos, com dezenas, centenas de cálculos para a tomada de decisões probabilísticas, fatalmente tenderá a reduzir os grupos que são objetos de decisão a um ou zero. A redução, ou o arredondamento, é essencial para análises a partir de BigData. É o equivalente à fatoração das opiniões.

Algoritmos levam à polarização e pensamento binário

Eis aí o grande problema dos nossos tempos. O acúmulo de decisões baseadas em algoritmos ao longo do tempo fará com que cada vez mais diferentes perfis psicológicos, sociais e políticos sejam agrupados em apenas dois conjuntos. Ou um indivíduo é, ou não é.

O reflexo disso é a polarização, o acirramento do pensamento binário.

Nos últimos anos, algumas pesquisas tentaram dissociar o extremismo das discussões políticas do uso de redes sociais e dos algoritmos. Foram analisadas comunidades onde apenas 20% das pessoas faziam uso regular das redes sociais ou da internet, indicando que a radicalização dos discursos ali poderia não ter influência da rede. Mas trata-se de uma afirmação pretensiosa. A influência de 20% da amostra não pode ser desprezada. Além disso, dificilmente a pesquisa conseguirá aferir a influência indireta das redes sociais, a partir dos meios de comunicação e da exposição da comunidade a notícias e posicionamentos de veículos que já enquadraram, sem saber, suas opiniões e notícias no processo algorítmico.

O acúmulo de decisões baseadas em algoritmos fará com que cada vez mais diferentes perfis sejam agrupados em apenas dois conjuntos.

Em suas palestras e análises, Pariser chama a atenção dos expectadores para a urgente necessidade de pressionarmos as grandes empresas de tecnologia para adoção de novos modelos. Uma das ideias seria o resgate da figura similar à dos editores, nos veículos de comunicação. Como curadores de conteúdo, com background cultural apropriado, diversificado, e um pensamento não binário, talvez fosse possível oferecer a um público ávido por informação, conteúdo rico o suficiente para contemplar visões mais amplas e complexas do mundo.

É uma possibilidade. Não sei se suficiente. Hoje, não só a informação de fontes confiáveis, mas TODO O CONTEÚDO produzido pelo usuário, é oferecido à aldeia global a partir de algoritmos. Talvez seja tarde ou não tenhamos mais curadores de conteúdo o suficiente. E a menos que a solução seja confiar nosso futuro a uma próxima tecnologia de IA quântica, para o futuro próximo, é provável que tenhamos entrado num beco sem saída.

*Jeferson Martinho é jornalista, CEO da Nova Onda Comunicação.