Uma pequena introdução à política em mídias sociais: bots, gestão de identidade e moderação descentralizada
A internet tornou-se a ágora[1] dos tempos modernos. Onde antigamente os antigos se reuniam num espaço físico para discutir assuntos políticos e da actualidade social, geralmente numa praça central no meio da cidade ou em pequenos anfiteatros, hoje fazemo-lo on-line nas plataformas de redes sociais. A questão não é se estamos discutindo política pela internet ou não (obviamente que estamos), mas antes se estaremos a fazê-lo da forma mais correcta.[2] Como veremos, sem dúvida que não estamos. A maioria dos portais oficiais de cidades depende fortemente de plataformas de mídia social “inseguras” como Facebook, Twitter, YouTube e Flickr para se envolver com o público, e muito poucos incorporam ferramentas de participação complexas, como pesquisas eletrônicas, fóruns eletrônicos, salas de conversação, etc., que de outra forma poderiam permitir uma interação mais direta e conseqüente.
A maioria dos protestos em massa que eclodiram desde 2019, de Hong Kong[5] à Argélia e Líbano, de motins em Portland, EUA, a protestos antigovernamentais devido a medidas relativas ao covid em todo o mundo[6], todos foram convocados on-line a partir de laptops e smartphones, inspirados em hashtags e coordenados por meio das redes sociais. Páginas no Facebook foram criadas para aumentar a consciencialização sobre crimes cometidos contra a humanidade, como os relativos à brutalidade policial durante a Revolução Egípcia, com a morte de Khaled Mohamed Saeed ou a morte de George Floyd representada pelo movimento Black Lives Matter. Muitas foram as vezes em que autoridades públicas bloquearam plataformas de mídia social ou interromperam temporariamente o acesso à internet. Em 2018 houve 128 encerramentos da internet documentados.
A questão com a maioria das plataformas na internet é que qualquer um pode se assumir como qualquer pessoa. Podemos nos autonomear quem quisermos introduzindo um apelido e podemos criar contas ilimitadas pois geralmente não há mecanismo que vincule uma identidade digital a uma pessoa real. Isto é bom e mau ao mesmo tempo. Numa nota positiva, permite o fluxo livre de informações confidenciais que de outra forma poderiam ser reprimidas. Num aspecto negativo, se não houver um mecanismo de responsabilização ou rastreabilidade, ou seja, se os utilizadores não puderem atestar a autenticidade das suas publicações, ferramentas interessantes como votação on-line ficam indisponíveis. Não apenas isso, mas a publicação de conteúdo prejudicial é incentivada porque em geral não há penalidades.
O que acontece num mundo sem identidade digital?
A web fica obscura. Torna-se um ambiente com fraca moderação, onde os utilizadores podem postar qualquer coisa sem esperar muitas repercussões. Isto não deve surpreender ninguem, afinal, é da internet que estamos a falar. O que pode ser uma surpresa é que se possa classificar mídias sociais como o Facebook como altamente inseguras. A prostituição é desenfreada na plataforma.[8] Bots[9] que espalham notícias falsas[10] também são um problema fora de controle.[11] O Twitter não é diferente![12] Esses bots sociais podem encenar conversas semelhantes às humanas e muitas vezes passam despercebidos pelos utilizadores menos atentos.[13] A sua capacidade de influenciar o comportamento humano não deve ser subestimada. Pesquisas[14] mostram claramente que bots foram responsáveis por cerca de 11% de todos os tweets de ódio analisados em conversas online sobre políticas controversas relacionadas com Israel/Palestina e o Iêmen. Podem influenciar o nosso pensamento e definir narrativas.[15],[16] Também temos mais de um milhão de utilizadores acessando o Facebook de forma totalmente anônima.[17] Todos estes pontos não devem ser considerados como críticas baratas. É inquestionavelmente um trabalho difícil monitorizar o conteúdo na internet.[18] Mas devemos estar cientes destes factos e das características que definem as plataformas que utilizamos. Não estou a afirmar que conteúdo na internet em geral seja impossível de moderar. Pode ser.[19] O que eu tento salientar é que a tarefa é imensamente difícil e muitas vezes requer poderes e recursos estatais para que seja eficaz, pelo menos sob a arquitetura atual. Felizmente, algoritmos de inteligência artificial estão melhorando a cada dia e podem facilitar a tarefa.[20],[21] Mas será o policiamento da internet com o auxílio de empresas privadas[22] a única e a melhor solução para se ter um ambiente seguro para debates on-line? Tem que haver uma melhor forma de se estar na internet.
Nem tudo é mau! Existe um meio-termo onde nos possa ser atribuida responsabilidade e ao mesmo tempo preservar o anonimato: gerenciamento de identidade[23] (tambem conhecido como IDM). IDM significa separar o atestado de identidade do registro da conta e posterior autenticação com truques criptográficos. Vulnerabilidades decorrentes de más implementações de IDM são um problema famoso[24] e um mundo em si. Como não esperamos que o leitor seja um especialista em segurança cibernética, poupar-lhe-emos detalhes. Basta dizer que sim, é possível ter IDM em cibersegurança. Se programada corretamente, permite que nos sintamos seguros, desde que a parte confiável encarregue de fornecer o atestado de identidade não esteja corrompida. Na verdade, usamos este tipo de procedimentos em todas as instituições públicas; seja tratando-se da emissão de dinheiro FIAT, a contagem de votos durante as eleições, a emissão de passaportes de viagem e controle de fronteiras, etc.[25] É verdade que esta arquitetura depende do bom comportamento das tais instituições confiáveis. À partida serão fáceis de monitorizar até porque a tarefa confiada é realmente muito simples: apenas fornecer um atestado de identidade. Existem ainda alternativas a este tipo de identidade digital mais exóticas que abordaremos num artigo dedicado a este tema.
Deixando de lado questões de confiança e criptografia, para entendermos as ligações entre ciberpolítica, privacidade e responsabilidade, poderá também ajudar se clarificarmos algumas ideias em particular no que diz respeito à forma como o conteúdo é apresentado e moderado; da pornografia à prevenção da disseminação e ao incentivo da violência, da desinformação à censura; entender como estes fenômenos surgem no ciberespaço e como podem ser moderados sem intromissão de entidades indesejadas.
Lançando luz na escuridão!
Qualquer plataforma projetada para hospedar discussões políticas não deve depender de verificadores de fatos ou qualquer outra forma de moderação delegada a entidades fora da propria comunidade. Isso está fadado ao fracasso a longo prazo por razões óbvias.[26] Uma estratégia melhor talvez fosse usar as tais identidades pseudônimas atestadas por terceiros confiáveis, como discutimos anteriormente, e então capacitar os utilizadores permitindo que a comunidade se auto-modere.[27] O raciocínio tem que ser enunciado de forma clara: é mais fácil monitorizar uma tabulação de identidades e credenciais do que monitorizar todo o conteúdo publicado online. Daí fazer sentido delegar um processo e outro não. Também é melhor usar a inteligência emocional coletiva de uma comunidade em vez da individual.[28] Como bônus, criamos as condições certas para que a votação eletrônica remota possa ocorrer!
Uma petição online recente enviada às autoridades do Reino Unido exigia um ambiente de mídia social mais seguro implementando precisamente identidade digital que temos vindo a falar. Foi prontamente respondido de forma negativa.[29] Alegadamente, fornecer identidades digitais mesmo que pseudônimas pode aumentar as vulnerabilidades de cibersegurança e ser contraproducente, afirmaram as autoridades. Pode. Mas qual é a alternativa; o nosso sistema atual é melhor como está? Além disso, essa relutância das instituições públicas em fornecer um serviço de identidade digital poderá ter algum paralelo com a relutância geral na aceitação de criptomoedas?[30] Estarão os nossos funcionários eleitos realmente qualificados e serão honestos o suficiente para discutir e decidir sobre tais questões técnicas e digitais?
O que eu gostaria de tirar do leitor no final deste artigo é a compreensão de que a política por meio de ferramentas digitais não é apenas um sonho cibernético do futuro, mas já está acontecendo e a razão pela qual precisamos urgentemente de um ciberespaço mais seguro. Segurança aqui não significa melhores maneiras de manter a sua senha segura. Vai muito além disso. Significa, entre outras coisas, pedir aos usuários que sejam também moderadores. Significa confiar em terceiros para emitir e proteger as nossas credenciais. A alternativa a criar este ambiente são bots e verificadores de fatos tomando conta do discurso político, potencialmente enganando o público com narrativas falsas. E isso penso, digo, nós não queremos com certeza.
Referências
[1] “Agora” entry on Wikipedia, https://en.wikipedia.org/wiki/Agora
[2] “Democratic Principles for an Open Internet” by the Open Internet for Democracy initiative, https://openinternet.global/themes/custom/startupgrowth/files/OpenInternetBooklet_english.pdf
[3] “Arab Spring” entry on Wikipedia, https://en.wikipedia.org/wiki/Arab_Spring
[4] “Facebook and Twitter key to Arab Spring uprisings: report” by Carol Huang, The National, UAE, 2011, https://www.thenationalnews.com/uae/facebook-and-twitter-key-to-arab-spring-uprisings-report-1.428773/
[5] “2019–2020 Hong Kong protests” entry on Wikipedia, https://en.wikipedia.org/wiki/2019%E2%80%932020_Hong_Kong_protests#Online_confrontations
[6] “Protests against responses to the COVID-19 pandemic” entry on Wikipedia, https://en.wikipedia.org/wiki/Protests_against_responses_to_the_COVID-19_pandemic#Organisers_and_methods
[7] “2021 United States Capitol attack” entry on Wikipedia, https://en.wikipedia.org/wiki/2021_United_States_Capitol_attack#Planning
[8] “Prostitution on Facebook” entry on Without Bullshitblog, 2021, https://withoutbullshit.com/blog/prostitution-on-facebook
[9] Eugene Goostman entry on Wikipedia, https://en.wikipedia.org/wiki/Eugene_Goostman
[10] “Social bots — the technology behind fake news” entry on IONOS website, 2018, https://www.ionos.com/digitalguide/online-marketing/social-media/social-bots/
[11] “Facebook has shut down 5.4 billion fake accounts this year” by Brian Fung and Ahiza Garcia, CNN Business, 2019, https://edition.cnn.com/2019/11/13/tech/facebook-fake-accounts/index.html
[12] “5 things to know about bots on Twitter” by Stefan Wojcik for Pew Research Center, USA, 2018, https://www.pewresearch.org/fact-tank/2018/04/09/5-things-to-know-about-bots-on-twitter/
[13] “Interview with Eugene Goostman, the Fake Kid Who Passed the Turing Test” by Doug Aamoth for Time, 2014, https://time.com/2847900/eugene-goostman-turing-test/
[14] “Hateful People or Hateful Bots? Detection and Characterization of Bots Spreading Religious Hatred in Arabic Social Media” by Nuha Albadi et al., University of Colorado Boulder, USA, 2019, https://arxiv.org/pdf/1908.00153.pdf
[15] “Bots, social networks and politics in Brazil” by Diretoria de Análise de Políticas Públicas, 2017, http://dapp.fgv.br/wp-content/uploads/2017/08/EN_bots-social-networks-politics-brazil-web.pdf
[16] “How bots are influencing politics and society” on Thomson Reuters Foundation, YouTube, 2020, https://www.youtube.com/watch?v=Xl0TrA8oXXo
[17] “A million people now access Facebook over Tor every month” by Kavvitaa S. Iyer on Techworm, 2016, https://www.techworm.net/2016/04/million-people-now-access-facebook-tor-every-month.html
[18] “The Trauma Floor: The secret lives of Facebook moderators in America” by Casey Newton on The Verge, 2019, https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-arizona
[19] “Police make 61 arrests in global crackdown on dark web” by Warwick Ashford on TechTarget, 2019, https://www.computerweekly.com/news/252460271/Police-make-61-arrests-in-global-crackdown-on-dark-web
[20] “Porn: you know it when you see it, but can a computer?” by Bijan Stephen on The Verge, 2019, https://www.theverge.com/2019/1/30/18202474/tumblr-porn-ai-nudity-artificial-intelligence-machine-learning
[21] “Violence Detection Using Spatiotemporal Features with 3D Convolutional Neural Network” by Fath U Min Ullah et al., Sejong University, Seoul, Republic of Korea, 2019, https://mdpi-res.com/d_attachment/sensors/sensors-19-02472/article_deploy/sensors-19-02472.pdf
[22] “Who Fact Checks the Fact Checkers? A Report on Media Censorship” by Phillip W. Magness et Ethan Yang, American Institute for Economic Research, USA, 2021, https://www.aier.org/article/who-fact-checks-the-fact-checkers-a-report-on-media-censorship/
[23] “Identity management” entry on Wikipedia, https://en.wikipedia.org/wiki/Identity_management
[24] “Sybil attack” entry on Wikipedia, https://en.wikipedia.org/wiki/Sybil_attack
[25] “What Is a Certificate Authority (CA) and What Do They Do?” on Hashed Out, 2020, https://www.thesslstore.com/blog/what-is-a-certificate-authority-ca-and-what-do-they-do/
[26] “Red tape” entry on Wikipedia, https://en.wikipedia.org/wiki/Red_tape
[27] “Decentralised content moderation” by Martin Kleppmann on personal blog, 2021, https://martin.kleppmann.com/2021/01/13/decentralised-content-moderation.html
[28] “Crowdsourcing civility: A natural experiment examining the effects of distributed moderation in online forums” by Cliff Lampe et al., USA, 2014, https://www.academia.edu/24467177/Crowdsourcing_civility_A_natural_experiment_examining_the_effects_of_distributed_moderation_in_online_forums
[29] “Make verified ID a requirement for opening a social media account” e-petition on Petitions, UK Government and Parliament, 2022, https://petition.parliament.uk/petitions/575833
[30] “Is bitcoin legal? Cryptocurrency regulations around the world” by Tim Falk, Finder, USA, https://www.finder.com/global-cryptocurrency-regulations