Lilian Milena
https://jornalggn.com.br/
https://jornalggn.com.br/
“Mais importante do que o fato em si noticiado, é sobre quem fala e de quem veio a informação”, explica André Micele, coordenador do estudo

Jornal GGN – Pesquisa realizada pelos mesmos autores do Índice de Confiança Digital permite concluir que a guerra da informação travada no ambiente web tem pouco impacto sobre o eleitorado. Em outras palavras, pessoas que se julgam de direita, raramente serão influenciadas por debates nas redes sociais a ponto de se tornarem de esquerda, e vice-versa.
Por outro lado, o trabalho avalia que é possível uma notícia modificar a escolha do candidato, mas sempre mantendo a mesma variação ideológica. O levantamento levou em consideração a atuação tanto de perfis reais como de perfis de robôs que, segundo a Diretoria de Análise de Políticas Públicas (DAPP), da FGV, são responsáveis por 20% das discussões políticas nas redes sociais.
Notícias e comportamento social
A propagação de notícias falsas via redes sociais na Índia, acusando muçulmanos e dalits (parte mais inferior da pirâmide social daquele país) de tráfico de mulheres e crianças, motivou o linchamento de, pelo menos, 12 pessoas em menos de dois meses, com 6 mortes, segundo informações da agência Reuters. Todas as vítimas foram inocentadas pela polícia que não confirmou a atividade de nenhum grupo de tráfico humano nas regiões afetadas pelas fake news.
Em 2013, uma executiva inglesa publicou na sua conta do Twitter, pouco antes de viajar à Cidade do Cabo: “Indo para África. Espero não pegar AIDS. Brincadeira. Eu sou branca!”. A frase propagou com velocidade suficiente para ser recebida sob protestos quando pisou no aeroporto da capital da África do Sul, obrigando-a a excluir seus perfis nas redes sociais e a empresa onde trabalhava emitir um comunicado com a seguinte afirmação: “esse é um comentário ofensivo, escandaloso que não reflete os pontos de vista e valores da IAC”.
No dia 1º de abril de 2016, por volta das 6 horas da manhã, o fundador do Opera Mundi, Breno Altman, foi surpreendido por uma ação coercitiva da Polícia Federal invadindo sua residência no âmbito da Operação Carbono 14, um desdobramento da Lava Jato. “Durante dias passei pelo constrangimento de ir a uma padaria que eu sempre frequento, ao restaurante que sempre vou, e ter que me defrontar com tensões provocadas pela ultra-exposição nos telefornais”, disse em entrevista ao GGN. Em março de 2018, o jornalista foi absolvido por unanimidade pela oitava turma do Tribunal Regional Federal da 4ª Região (TRF-4), notícia que não teve a mesma “ultra-exposição” nos telejornais.
Os três exemplos convergem para a tese de que notícias, verdadeiras ou falsas, interferem no comportamento das pessoas. Com base nesta premissa, André Micele, idealizador do Índice de Confiança Digital, e coordenador do MBA e post-MBA Digital Businnes da Fundação Getúlio Vargas (FGV), organizou um novo estudo para checar se a guerra de informações podem alterar a decisão do eleitorado, considerando a ação de robôs sociais (social bots) e de pessoas comuns, arregimentadas para defender um determinado político.
As conclusões iniciais do trabalho foram apresentados na palestra "Fake News", organizada dentro da 6ª Semana de Educação Executiva, na Escola de Administração de Empresas de São Paulo (EAESP), da FGV, na última quinta-feira (26).
Comentários na internet não alteram ideologias...
Segundo levantamento realizado pela DAPP-FGV divulgado há menos de um ano, cerca de 20% dos comentários políticos feitos em redes sociais de brasileiras são de robôs. “O estudo foi, inicialmente, focado no Twitter, mas algumas generalizações permitem fazer a mesma afirmativa para outras redes sociais”, pontuou Micele.
A primeira conclusão, no trabalho mais recente do pesquisador, é que as pessoas ainda não conseguem distinguir um robô de uma pessoa, o que causa certa surpresa. Os bots são controlados por softwares que geram conteúdo imitando o comportamento de seres humanos, inclusive estabelecendo interação com outros robôs nos debates travados na web. Porém, não são capazes de formular discussões muito sofisticadas como mostrou o BuzzFeed em uma matéria publicada em 2016, sobre uma série de contas falsas identificadas no Twitter naquele ano eleitoral.
"Perfis criados em 2012 que tuitaram entre maio e junho daquele ano, ficaram inativos por 4 anos, e voltaram à ativa no mesmo mês de 2016”. Veja a ação dos perfis identificados como falsos a seguir:

Micele avaliou também o impacto do debate político feito por não robôs, ou seja, por pessoas comuns, portanto com maior capacidade de elaboração nas argumentações. Ainda assim, elas não foram capazes de altera o viés político de uma pessoa com pensamento político previamente fundamentado.
“Raramente alguém que já se consolidou diante de um viés político muda de ideia. É muito difícil fazer alguém de direita virar de esquerda. Então, os candidatos, os marqueteiros políticos que estão brigando nos polos, muito provavelmente estão perdendo seu tempo”, analisou.
Portanto, a briga por votos é mais eficiente quando direcionada para os indecisos, ou “àqueles que não têm convicções tão claras sobre algum tema da agenda política que está acontecendo”, disse o pesquisador pontuando que fazer uma ampla separação das pessoas em dois grupos não é a forma mais inteligente:
“O que percebemos [em um debate ideológico], é que quando você aponta ser de um determinado lado, você é obrigado a levar o pacote inteiro daquele lado junto, e isso não necessariamente é verdade”, comentou exemplificando que existem pessoas que, ao mesmo tempo que defendem a privatização de empresas nacionais, são favoráveis a legalização do aborto.

Gráfico do DAPP-FGV, sobre as eleições de 2014, mostra que parte das contas suspeitas de serem robôs encontravam-se nos polos extremos da defesa dos candidatos.
…mas podem influenciar na alteração de candidatos
A guerra de informações pode não fazer alguém de direita se tornar de esquerda, mas pode fazê-la mudar de candidato. “Se eu sou de direita e ouço que o Alckmin falou que vai taxar a distribuição de lucros, então posso mudar de ideia escolhendo outro candidato do mesmo viés político, como João Amoêdo ou Enrique Meirelles. Não vou para a esquerda”, observou Micele ressaltando que pessoas menos propensas a mudar de candidato são aquelas de visões mais polarizadas.
“O que tem tudo a ver com a palavra do ano de 2016 no Dicionário Oxfor: pós-verdade. Falamos de um eleitor que, mesmo vendo, hipoteticamente, uma foto real do seu candidato matando a mãe, diria que é montagem”, fustigou.
“Mais importante do que o fato em si noticiado, é sobre quem fala e de quem veio a informação”, completou indicando outra conclusão do trabalho: a preocupação com a fonte de notícias. Se for vinda de alguma pessoa ou meio que o leitor confia, as chances de conversão, são maiores.
Cenário: debates fragilizados, instintos alimentados
Com os resultados da sua pesquisa, Micele lança luz para o diálogo, cada vez mais ameaçado dentro lógica de propagação de informação das redes sociais, ou do que se condicionou ser hoje o principal formato de viralização.
Não existe, em si, nada de errado com os filtros estabelecidos pelo Facebook, por exemplo, primeiro porque permitem que o usuário escolha as páginas e pessoas que deseja seguir e, em termos de mercado, segmenta melhor os anúncios.
“Com apenas 150 reações minhas no Facebook - entre likes, carinhas zangadas, sorrisos e choros -, o algorítimo da rede tem condições suficientes para prever meu comportamento de forma mais precisa que minha mãe, diante de uma nova publicação”.
Aliás, é essa arquitetura que explicaria o amplo sucesso das redes sociais, instingando um valor inato à humanidade: o de sentir-se fortalecido dentro de um grupo.
“O pertencimento a um grupo nos traz a sensação de sermos mais fortes. Evidentemente, não temos contato com todo mundo que é nosso amigo no Facebook, mas a reunião de outros que pensam como nós, traz a sensação de poder o que, de certa forma, também é induzido pelo mercado com a construção dos influenciadores [a exemplo dos youtubers]”.
O lado ruim dessa história é que as “bolhas sociais” podem estar prejudicando a convivência sadia entre pessoas que pensam de formas diferentes, pondo em risco a vida em sociedade.
A saída defendida pelo pesquisador é furar a bolha curtindo páginas e seguindo pessoas que pensam diferente de nós:
“Você diz: ‘Ah! Tem alguém aqui curtindo uma página do PT, vou tirar dos meus amigos!’. Calma, ela só curtiu algo diferente de você. De maneira geral, todo mundo quer a mesma coisa: um país melhor. Só que acreditamos em caminhos diferentes. A medida em que cada grupo vai se fechando, a tendência é de polarização e isso nos leva ao enfraquecimento do debate, ao enfraquecimento da democracia”, concluiu.
Comentários
Postar um comentário
12