sexta-feira, 21 de maio de 2021

Plataformas digitais, responsabilidade social e danos comunitários

Indígena Warao em Manaus, julho de 2020. (Crédito: Altemar Alcantara/Semcom)

por Eugênio Trivinho e Sergio Amadeu da Silveira

Privatização indiscriminada de “espaços públicos” de participação e efeitos sociais da desinformação exigem regulação e fiscalização mais rigorosas das plataformas digitais no Brasil

Há dois meses, organizações da sociedade civil e a imprensa internacional no Brasil noticiaram que a circulação de fake news em territórios indígenas brasileiros ameaçavam o sucesso de campanhas de vacinação contra o Sars-CoV-2, causador da Covid-19. Mensagens de redes sociais estavam insuflando indígenas à negarem serem imunizados. A resistência, assim falseada, atingia, igualmente, a integridade física das equipes sanitárias[1]. A gravidade do fato está acima de qualquer discussão. A desinformação espalha risco de contaminação e morte nas comunidades nativas, nas cidades circunvizinhas e em países contíguos, com influência mundo afora.

As redes sociais vinculam-se a modelos de negócio conhecidos como plataformas digitais de relacionamento. São bases tecnológicas geridas por companhias bem-sucedidas, com ações em bolsas de valores. Tais modelos de negócio aprofundaram a privatização do ciberespaço. Direta ou indiretamente, estão implicados na continuidade de efeitos político-eleitorais incontrolados e danosos, no Brasil e em outras partes do mundo. Hoje, há poucas dúvidas sobre a responsabilidade dessas companhias em relação ao que permitem socialmente e não o coíbem a contento. Esta última lacuna se enquadra no rol de negligências empresariais inaceitáveis.

As reverberações de negócio socialmente lesivas, que implicam perda de vidas – e, por que não, ajudam o genocídio em curso –, ocorrem mediante expansão dessas companhias para comunidades consideradas mercado e/ou através da apropriação, pelas comunidades, de canais digitais disponibilizados por tais modalidades de empreendimento. Essas reverberações não deixam de ser como “cianeto simbólico” vendido ou colocado à solta para consumo de amplas segmentações geográficas. O veneno invisível implica diretamente o destino da saúde (corporal e mental) de milhões de habitantes. Inexiste metáfora divorciada de relações concretas: mutatis mutandis, o recurso ajuda a mostrar o quanto os efeitos colaterais das plataformas digitais de relacionamento podem ser tão tóxicos como os produtos legalizados da indústria do tabaco, da obesidade e de armamentos.

Os canais e recursos desses modelos de negócio, bem como o conjunto de tendências usuárias a eles vinculadas, integram o espaço corporativo algoritmicamente preditivo dessas companhias. Os fluxos de informação e imagem que cruzam esse espaço, por mais individualizados e autônomos que sejam, são fundamentalmente indesatáveis dos interesses empresariais que os condicionam, a começar pelo fato de tais empreendimentos precisarem desses fluxos para reciclar caixa, acumular ganhos financeiros e garantir expansão.

A delicadeza política da matéria enseja análise mais precisa, ainda que sucinta. Como se sabe, as plataformas digitais de relacionamento são gerenciadas por sistemas algorítmicos opacos e sem nenhum controle por parte da sociedade. Essa infraestrutura online opera para maximizar os lucros dos acionistas das respectivas companhias. O grande negócio se beneficia da espetacularização e das polêmicas que estimulam e, ao mesmo tempo, incitam parte de seus usuários, fazendo-os permanecerem tempo cada vez maior nas teias de extração de dados pessoais. É inegável a necessidade de as democracias abrirem a caixa preta desses sistemas de gestão e controle da visualização de mensagens. É urgente que as plataformas digitais respeitem as Constituições democráticas e permaneçam sob a supervisão da sociedade.

Motivos para essa exigência legítima (a ser retomada adiante) não faltam. A rigor, essas companhias são, no mínimo, duplamente responsáveis: primeiro – o óbvio –, por engendrarem a possibilidade de fake news e hate speech (discurso de ódio) em seus perímetros sociais de atuação corporativa; e, segundo, por não adotarem providências executivas mais eficazes para impedir, exclusiva e definitivamente, que os fluxos de desinformação engendrem ou encorpem tendências comunitárias destrutivas ou perniciosas. Por óbvio, tais medidas de precaução não implicam, de nenhuma forma, censura propriamente algorítmica ou automática de conteúdos.

A ausência de ação mais convincente para neutralizar riscos e impedir danos concretos representa flagrante falha de responsabilidade social do modelo de negócio e, sob tal cláusula, deve ser científica e juridicamente analisada.

Assim como é impossível abonar o conjunto dos efeitos sociais da desinformação como se fossem “obra da vida”, naturalizados, também não se pode simplesmente ver as companhias do ramo das plataformas reagirem a tudo “como se não fosse comigo”; e continuarem faturando bilhões – sobretudo durante a pandemia de Covid-19 –, sem a devida investigação e eventuais condenações indenizatórias. Equivale a dizer: é inadmissível que tais companhias vigorem como “latifúndios digitais”, intocáveis e impunes, sem culpa, à sombra de uma felicidade financeira indiferente, ninada por curvas ascendentes na Nasdak e na Bolsa de New York. Conivências legais com a autorregulação não empenham troféu indiscriminado a liberdades econômicas a esmo, no segmento da inovação tecnológica.

A sociologia da administração pode enquadrar a responsabilidade legal de uma organização no rol das responsabilidades sociais (políticas lato sensu). A visão jurisprudente e legislativa, por sua vez, pode inverter a relação, concebendo a responsabilidade social como um tipo de responsabilidade legal. Angulações específicas não alteram a essência do compromisso sine qua non em jogo. A envergadura sociolegal da responsabilidade corporativa jamais se divorcia dos impactos (mediatos ou imediatos, benignos ou nefastos) que provoca (ou venha a incentivar) nos ecossistemas em que se insere e atua. Essa injunção deve combinar necessariamente desenvolvimento econômico sustentável e bem-estar comunitário, jamais o contrário.

Que se deva punir legalmente quem cria ou inventa desinformação periclitante por meio de recursos virtuais desses modelos de negócio constitui procedimento trivial e pacífico, também acima de qualquer dúvida. Que se deva isentar da mesma responsabilidade jurídica e social os espaços corporativos de virtualização pelos quais trafega essa desinformação escapa, atualmente, ao bom senso atento, que dirá à observação especializada e socialmente comprometida. A situação é complexa o suficiente para não excluir, pela tangente, nenhuma hipótese de avaliação e julgamento.

A gravidade dos fatos – ontem e sempre – justifica ênfases: as instâncias executivas superiores dessas companhias precisam ser responsabilizadas e/ou pressionadas a adotar medidas mais eficazes contra a proliferação de seus danos reais como modelos de negócio, danos causados por fake news e mentiras institucionais, que passaram a abranger a credibilidade de vacinas e campanhas de vacinação. Dada a dificuldade de bloqueios algorítmicos a conteúdos desinformativos, as plataformas digitais devem contribuir imediatamente com ações das autoridades judiciais – algo que hoje não ocorre em tempo hábil.

Frise-se, igualmente: a circulação desses factoides narrativos compromete a vida de milhares de indígenas no país. Essas comunidades estão sendo minadas pelo pacote de serviço “social” prestado pelas plataformas virtuais. A ocorrência escancara o quanto a devastação produzida pela ruptura da barragem de Brumadinho apresenta versões digitais insuspeitas, sob irresistíveis neons de tecnologias móveis e sem fronteiras.

Do ponto de vista antropológico, político e social, o caso é emblemático de como operam e/ou são utilizados tais modelos de negócio em milhões de comunidades urbanas e rurais no Brasil, na América Latina, nos Estados Unidos e na Europa. Em escala ampliada, o caso não deixa de mostrar, por depreensão, como, de forma involuntária, mas, ainda assim, indiscriminadamente, as plataformas digitais de interação se confundem, no limite, com o funcionamento social do neofascismo, do supremacismo e de todas as formas de racismo e propagação de ódio nas sociedades atuais.

A execução da premente tarefa de consolidação de resoluções mais eficazes contra drenos escabrosos – resoluções que ainda não aconteceram a contento – deve constituir obrigação exclusiva desses empreendimentos de big tech, jamais de organizações da sociedade civil que deles cobra medidas cabíveis. Por razões óbvias, pleitos nessa direção são, diferentemente, prerrogativa legítima de setores civis organizados. Ambos os horizontes – proposição e execução – devem ser alcançados sem prejuízos à liberdade e à privacidade de milhões de usuários desvinculados de qualquer prática ilícita de interação, ao priorizarem, na permanência em rede, canais e recursos dessas companhias.

O tenso compromisso com uma pauta política, social e tecnológica como esta sugere um complemento reflexivo importante.

Em particular, a privacidade individual tem sido sistematicamente atacada pelos algoritmos de inteligência artificial utilizados por esses modelos de negócio. Os algoritmos captam e sistematizam, invariavelmente, dados de acesso, perfis, escolhas e rastros para favorecer operações comerciais de distribuição a destinatários inconfessos, sem qualquer consulta aos verdadeiros proprietários das informações coletadas. Como se sabe, esse procedimento fere mortalmente uma das vigas básicas da democracia moderna como valor universal. No Brasil, a Constituição Federal de 1988, em seu Artigo 5 (inciso X), protege a privacidade. O Marco Civil da Internet, estabelecido pela Lei 12.965/2014, regula a matéria em mais de dez cláusulas, em especial nos Artigos 3 (inciso II), 8 e 11.

A supuração da ferida mercantilista da privacidade traz à tona aspectos estruturais tão ou mais problemáticos. As companhias do ramo das plataformas são modelos de negócio erigidos nas costas dos usuários, sob o pretenso álibi de contratos legais individualizados, celebrados às claras e na porta da frente. Esse traço peculiar responde pelo afã de tornar menos arriscados investimentos industriais e comerciais de instituições parceiras e, com isso, tonificar a reprodução ampliada e integrada de capitais produtivos, na esteira de propostas publicitárias subsequentes, não solicitadas (muitas vezes, indesejadas) e amplamente assediantes.

Não incorrerá em equívoco de interpretação quem, longe de qualquer espanto, perceber, nessa injunção sombria, um esquema capcioso pouco diferente da lógica banal da chantagem: ou o usuário aceita as condições empresariais e normativas do factoide de “espaço público” proposto – que monetiza ares da liberdade ao convertê-los em “acesso”, “pertencimento”, “participação”, “influência” e similares –, ou não poderá usufruir dos “serviços prestados”. A fórmula social é a do terror politicamente suave, de tão invisível: ou o usuário capitula, acedendo a termos, ou está excluído.

A questão, séria per se, envolve engendramento pós-industrial, privatização velada e ultracapitalização de “espaços públicos”. O paradoxo fica rubro diante do contrassenso normalizado: “espaço público” jamais poderia ser “privatizado”.

A escabrosidade desse escambo, que automatiza a vigilância algorítmica em patamar sofisticado de controle social – sem olhos humanos de vigia simultânea –, arruína a privacidade a pretexto de arremedos técnicos e operacionais que a “respeitam” e a “protegem”.

Os fundamentos estruturais desses modelos de negócio são suficientes para as organizações da sociedade civil defenderem a necessidade, também urgente, de regulação e fiscalização democráticas mais rigorosas da atuação dessas companhias no Brasil. Essa exigência legítima deve ser cumprida por órgão de Estado (jamais de governo) e com a participação paritária de representantes de todos os segmentos sociais interessados. Há mais de 25 anos, o país conta com excelente instância articulatória para atingir essa meta: o Comitê Gestor da Internet no Brasil (CGI.br). Os setores republicanos e progressistas da sociedade civil precisam, para tanto, defender a independência deste órgão crucial, a fim de livrá-lo das garras ostensivas de governos neofascistas e neoliberais.

Eventual ação federal coordenada para que nenhuma regulação e fiscalização democráticas ocorram, deixando frouxos todos os riscos mencionados, continuarão a justificar veementes protestos em favor da privacidade e da liberdade individuais, bem como das vidas perdidas e/ou ameaçadas por fake news e moções de ódio.

Certamente, essa matéria se tornou severamente delicada, depois de décadas de entrelaçamento das plataformas digitais com operações cotidianas em todos os setores profissionais e âmbitos de lazer e sociabilidade. Nenhum problema periclitante, porém, pode ser mascarado, nem ter solução adiada.

Eugênio Trivinho é professor do Programa de Estudos Pós-Graduados em Comunicação e Semiótica da Pontifícia Universidade Católica de São Paulo (PUC-SP).

Sergio Amadeu da Silveira é professor associado da Universidade Federal do ABC (UFABC)

[1] Mais detalhes em:

Amazônia Real: “Caos na pandemia: Indígenas viram alvo de fake news antivacina”, em: https://amazoniareal.com.br/caos-na-pandemia-indigenas-viram-alvo-de-fake-news-antivacina;
Instituto Socioambiental: “Na Terra Indígena Araribóia, fake news atrapalham vacinação”, em: https://www.socioambiental.org/pt-br/noticias-socioambientais/na-terra-indigena-arariboia-fake-news-atrapalham-vacinacao;
BBC News Brasil (em Londres): “Epidemia de fake news ameaça vacinação em terras indígenas”, em: https://www.bbc.com/portuguese/brasil-56433811.amp. Vídeo correspondente no YouTube, em: https://www.youtube.com/watch?v=OqICw15kp-w.

Nenhum comentário:

Postar um comentário

12