Comunicação e Cultura Digital
Bots, Ciborgues e WhatsAppers: Atores Humanos e Não-Humanos em Grupos Políticos Digitais Brasileiros
Bots, Cyborgs and WhatsAppers: Human and Non-Human Actors in Brazilian Digital Political Groups
Bots, Cyborgs y WhatsAppers: Actores Humanos y No Humanos en los Grupos Políticos Digitales Brasileños
Revista Comunicando
Associação Portuguesa de Ciências da Comunicação, Portugal
ISSN: 2184-0636
ISSN-e: 2182-4037
Periodicidade: Semestral
vol. 11, núm. 2, e022017, 2022
Recepção: 19 Agosto 2022
Aprovação: 16 Setembro 2022
Publicado: 21 Outubro 2022
Resumo: Este artigo busca responder à pergunta: como podem ser caracterizados os membros de grupos políticos digitais quando se admite a existência de atores humanos e não-humanos no ambiente? Para isso, foi efetuada uma pesquisa exploratória que alcançou 1.040 membros de 104 grupos políticos brasileiros do WhatsApp entre os dias 30 de outubro de 2020 e 29 de novembro de 2020. Após a recolha de dados e a análise dos resultados, percebeu-se que os grupos são formados maioritariamente por WhatsAppers, que são os membros orgânicos, mas também se percebe a presença de bots e ciborgues. A atuação dessas contas inteira ou parcialmente automatizadas está ligada ao compartilhamento de mensagens desfavoráveis aos adversários ou de conteúdos elogiosos aos políticos que gozam da preferência do espaço.
Palavras-chave: Bots, Ciborgues, Não-Humanos, WhatsApp.
Abstract: This article seeks to answer the question: how can members of digital political groups be characterized when the existence of human and non-human actors in the environment is admitted? For this, an exploratory research was carried out with 1,040 members of Brazilian political WhatsApp groups between October 30, 2020 and November 29, 2020. After collecting and analyzing the results, it was noticed that the groups are formed mostly by WhatsAppers, who are the organic members, but the presence of bots and cyborgs is also noticeable. The performance of these fully or partially automated accounts is linked to the sharing of unfavorable messages to opponents or content that praises politicians who enjoy the preference of space.
Keywords: Bots, Cyborgs, Non-Human, WhatsApp.
Resumen: Este artículo busca responder a la pregunta: ¿cómo caracterizar a los integrantes de grupos políticos digitales cuando se admite la existencia de actores humanos y no humanos en el entorno? Para ello, se realizó una investigación exploratoria con 1.040 integrantes de grupos de Whatsapp políticos brasileños entre el 30 de octubre de 2020 y el 29 de noviembre de 2020. Después de recopilar datos y analizar los resultados, se percibió que los grupos están formados en su mayoría por WhatsAppers, que son los miembros orgánicos, pero también se nota la presencia de bots y cyborgs. El desempeño de estas cuentas total o parcialmente automatizadas está ligado al intercambio de mensajes desfavorables a opositores o contenidos que elogian a políticos que disfrutan de la preferencia del espacio.
Palabras clave: Bots, Cyborgs, No Humanos, WhatsAp.
1. Introdução
Os atores não-humanos representam uma fatia considerável do fluxo informacional digital — dados revelados recentemente pelo Twitter indicam que cerca de 8,5% de todos os usuários ativos são compostos por contas inteira ou parcialmente automatizadas (Securities and Exchange Commission of the United States, 2022). A avalanche de informações programadas, porém, não deve ser encarada tão somente como intervenção danosa no ambiente virtual. Para diferenciar os robôs em relação à finalidade, o Twitter lançou uma atualização que permite que os chamados “bots do bem” sejam identificados através de um rótulo que pode constar na parte inferior ao nome do perfil (Twitter, 2022).
Nas eleições brasileiras de 2018, o WhatsApp ocupou um lugar de destaque em relação à disseminação de informações políticas. O mensageiro, inclusive, contribuiu indiretamente com a estratégia de campanha do atual presidente Jair Bolsonaro. A reportagem do jornal Folha de São Paulo apontou que disparos automatizados de WhatsApp foram comprados por empresários ligados a Bolsonaro para impulsionar informações de interesse da campanha, especialmente contra o Partido dos Trabalhadores (Campos Mello, 2018). Em 2020, um levantamento nos sítios oficiais dos postulantes aos cargos de prefeito de São Paulo e do Rio de Janeiro, as duas maiores capitais brasileiras, constatou que metade dos candidatos possuem o WhatsApp como plataforma de mobilização da militância (Paiva et al., 2020). Para as eleições deste ano, o Tribunal Superior Eleitoral do Brasil (2022) tem buscado firmar parcerias com as plataformas de media digitais com o objetivo de inibir o disparo massificado de desinformação, com especial preocupação com os mensageiros, como o WhatsApp e o Telegram.
Em virtude de não possuir uma API pública, isto é, não disponibilizar acesso de aplicações externas ao seu código para obtenção de dados customizados, não é possível efetuar a deteção de bots no WhatsApp a partir de ferramentas computacionais. Segundo Javed et al. (2020), entre as plataformas mais acessadas, o WhatsApp é a que possui um campo de estudo menos maduro em relação à metodologia para a deteção automatizada de robôs. Os estudos mais recentes possuem caráter exploratório e mesclam recursos informáticos, especialmente para recolha de dados e tabulação das informações, e manuais, sobretudo para analisar de forma pormenorizada o comportamento dos usuários nos grupos (Machado & Konopacki, 2019).
Como referencial teórico principal, embasou-se a pesquisa nos postulados de Bruno Latour (1985) sobre a Teoria Ator-Rede (ANT), a qual menciona que as redes são formadas a partir da interação entre objetos materiais e imateriais em movimento, no qual cada ator possui simetricamente a mesma importância (Latour & Woolgar, 1988/1997). Foram retomadas publicações recentes que estudam a ação de atores não-humanos em plataformas de media digitais, especialmente o Twitter, e principais pesquisas que consideram o estudo de contas inteira ou parcialmente automatizadas, cujo objeto é o WhatsApp.
Em virtude da relevância crescente no processo político e no desafio metodológico que se impõe, este artigo busca contribuir com um olhar sobre a ação dos atores não-humanos em grupos políticos no WhatsApp, cujos dados foram recolhidos durante as eleições de 2020. A metodologia de deteção foi desenvolvida por pesquisadores do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-RJ). O primeiro tratamento dos dados, que buscou indícios de robotização, foi efetuado através de um filtro no Microsoft Excel que levou em consideração especialmente a frequência temporal dos disparos da mensagem, em uma amostra que reuniu 1040 usuários. Após encontrar os membros mais frequentes, observaram-se seus comportamentos nos grupos para verificar se as interações eram condizentes com as ações humanas. Por fim, foram analisados aspetos ligados às características dos perfis (Machado & Konopacki, 2019).
No que se refere ao nível de automatização, os membros de grupos de WhatsApp podem ser classificados de duas formas: bots, para quando se percebe que a conta responde inteiramente a programações; e ciborgues, situação em que se percebe a mesclagem entre interações orgânicas e ações automatizadas (Chu et al., 2010). A terceira forma abarca os membros orgânicos — os utilizadores reais dos mensageiros digitais que se aglutinam voluntariamente em grupos são chamados de WhatsAppers (Barbosa, 2021). Durante a análise, percebeu-se que os grupos são formados maioritariamente por WhatsAppers. Já os bots foram mais identificados nos ambientes digitais do que os ciborgues. Observou-se que a ação dos bots está limitada ao disparo de mensagens programadas em períodos específicos contra os adversários políticos ou a favor do político de preferência do espaço, enquanto os ciborgues mesclam este tipo de mensagem com a interação orgânica, que em todas as situações detetadas não tinham relação semântica com os conteúdos automaticamente disparados.
Os aspetos mencionados até aqui mostram a relevância do artigo de propor um estudo sobre uma plataforma que está a receber contribuições científicas crescentes, o WhatsApp, mas que, no que tange à identificação de atores não-humanos, ainda carece de trabalhos em volumes mais robustos, sobretudo em virtude da dificuldade na extração automatizada de dados (Bittencourt & Rosa, 2021). Além de ser um trabalho que testa um caminho metodológico recentemente desenvolvido para deteção de contas inorgânicas no aplicativo de microchats, acredita-se que a identificação de bots e ciborgues em grupos políticos é importante, especialmente, por revelar o nível de convivência de humanos e não-humanos, ou seja, a quantidade de contas robotizadas que se relacionam com usuários reais em ambientes como o de um mensageiro digital.
Ademais, a pesquisa se mostra relevante por apresentar a dinâmica de interação desses membros inteira ou parcialmente automatizados num contexto de crescente preocupação com a influência desse tipo de ação em processos eleitorais, em virtude da sua alta capacidade de disseminação de informações. Desta forma, nota-se que, ainda que o estudo tenha como objetivo principal o de identificar e entender como atuam os atores não-humanos, de forma indireta temas atuais da comunicação política também são abordados, como a propagação do discurso de ódio e a disseminação de fake news.
2. Revisão Teórica
Uma das teorias que admite a influência de não-humanos em redes formadas por humanos e que é capaz de oferecer elementos teóricos que ajudem a compreender a dinâmica das interações entre os diversos atores envolvidos é a Teoria Ator-Rede (ANT), do filósofo francês Bruno Latour. Criada em um ramo acadêmico denominado Estudos da Ciência e Tecnologia, a teoria nasceu no período em que houve um debate entre Latour e o filósofo Gabriel Tarde sobre como as mensagens se espalhavam na sociedade. Embora concordasse com Tarde sobre a subordinação do social à psicologia na formação de “raios imitativos”, Latour apontou que as redes de espalhamento eram compostas não apenas por atores humanos, mas também por não-humanos, ou seja, havia redes sociais ligadas por elementos materiais e imateriais (Latour, 2017). Há cerca de 40 anos a ANT passou a ser estudada de forma transversal por diversos campos do conhecimento das ciências humanas.
Um conceito importante para o entendimento da ANT é o de simetria. Para Latour, o entendimento dos fenômenos a partir de bases simétricas representa a negação da distinção de diversas posições aparentemente dicotômicas, como: social e técnica, factos e artefactos, senso comum e pensamento científico etc. Com esse olhar, o teórico francês considera o pesquisador como fruto exatamente do conflito entre os opostos, no contexto de um laboratório ou campo de pesquisa que está imerso em uma vasta e variada rede de elementos. O autor busca chamar atenção para a importância das circunstâncias de uma criação, uma vez que, na história, a tendência é a do obscurecimento do contexto diante do fato descoberto (Melo, 2007).
Na ANT, portanto, admite-se que uma variedade de materiais se conecte em uma rede dinâmica que possui entradas múltiplas e está sempre aberta a novas associações, que podem ocorrer de formas imprevisíveis. Para Latour, o ator pode ser um animal ou uma pessoa, mas também smartphones, computadores ou sensores, e o papel de cada elemento é definido pela efetividade na rede nas conexões com outros atores — os chamados nós (Latour, 1996). As redes são dinâmicas e atuam em várias direções que se tocam com alguma frequência em um movimento de influência e interferência recíprocas. O avanço da rede no que toca à aceitação de uma proposição levará em conta a inscrição (representação imagética), a legibilidade (capacidade de entendimento) e a imutabilidade (repetição de resultados em circunstâncias semelhantes) (Latour, 1985).
Em um olhar contemporâneo acerca da teoria de Bruno Latour, a sociedade é uma grande rede sociotécnica composta por atores humanos e não-humanos, na qual aqueles só percebem a existência destes diante de uma falha na rede que obriga a reavaliar as circunstâncias do processo. A teoria de Latour mostra que a forma pela qual as mensagens são criadas pelo emissor e atingem as pessoas se modificam com o tempo. A sociedade seria a junção de elementos sociais e naturais que avança por uma estrada imprevisível, na qual a formação de redes depende da adesão ou da recusa do ator social que está adiante.
3. Os Atores Não-Humanos: Bots e Ciborgues
Os estudos dos atores não-humanos no contexto das plataformas de media digitais têm acompanhado sobretudo as pesquisas que possuem como foco a influência que são capazes de exercer na democracia (Ruediger et al., 2019). A utilização de contas automatizadas seria, por exemplo, eficaz para o espalhamento de informações intencionalmente falsas que visam desequilibrar o processo democrático e, em larga escala, seriam capazes até de adulterarem a perceção social sobre determinados acontecimentos ou candidatos (Ratkiewicz et al., 2021). Em um estudo que trata especificamente sobre bots e as possíveis atuações no ambiente eleitoral, Howard et al. (2018) apontam a existência de dois tipos de contas inteiramente automatizadas: os bots sociais e os bots políticos. Os primeiros, quando programados com a intenção de prejudicar o ambiente das redes, podem causar prejuízos para outros usuários através do roubo de informações pessoais, do compartilhamento de informações falsas e até manipulação do mercado de ações. O segundo, que o autor considera uma subcategoria do primeiro e cuja utilização aponta como crescente a cada pleito, “desempenha um papel cada vez mais importante para o sentimento do público, manipulação de opiniões e contenção de procedimentos legais permanentes” (Howard et al., 2018, p. 85).
Enquanto os bots são identificados como aqueles usuários que agem inteiramente de acordo com a programação efetuada por um desenvolvedor, os ciborgues possuem uma ação híbrida: esses usuários são capazes de mesclar ações automatizadas com intervenções orgânicas no campo digital. São classificados como ciborgues, portanto, quando há evidência de participação humana combinada com a ação de bot (Yan, 2009). Uma ação de um ciborgue em media digitais pode ser quando, por exemplo, uma conta está programada para disparar mensagens automatizadas, mas o seu administrador também realiza interações com amigos em comunidades virtuais esporadicamente. Ou então quando a conta é organicamente utilizada, mas, em um momento de ausência, o administrador deixa o perfil programado para efetuar disparos em contextos específicos.
Zago et al. (2019) trazem uma perspetiva ligada à dificuldade de deteção das contas automatizadas nas plataformas de media digitais, especialmente aquelas que possuem programação mais avançada, levando em consideração sobretudo os aspetos técnicos ligados no processo. Os autores citam a dificuldade de armazenar uma grande quantidade de informações que são disparadas em alta velocidade como um fator que favorece a não deteção dessas contas; outro entrave acontece diante da comum ausência de dados que permitam a verificação do perfil, como número de seguidores, atividades recentes e a frequência de postagens; a falta de métricas precisas para comparação de atividades compatíveis com o comportamento humano é mais uma barreira para o trabalho dos pesquisadores; a dificuldade de identificação graças às mudança constantes no comportamento dos bots é um artifício dos programadores para inibir a identificação; e, por fim, percebe-se a dificuldade de criar ferramentas adequadas para visualização dos dados das contas automatizadas em várias camadas.
4. Bots, Ciborgues e os Media Digitais
Os estudos que se dedicam à identificação de bots e ciborgues nos media digitais possuem geralmente o Twitter como objeto, visto que a plataforma ainda é uma das poucas que permite a criação de ferramentas computacionais para efetuar a identificação de contas inteira ou parcialmente automatizadas. Os esforços neste sentido passam pela criação de estratégias diversas. Dickerson et al. (2014) se propuseram a desenvolver uma análise baseada na interpretação dos sentimentos de um tweet para diferenciar humanos e bots — deram o nome de SentiBot à aplicação. Eles analisaram mais de 7 milhões de tweets da Índia e chegaram à conclusão de que os bots expressam menos sentimentos que os humanos e que as emoções demonstradas pelos robôs são mais direcionadas. Os pesquisadores apontaram que o recurso foi útil principalmente para a classificação em situações nas quais os algoritmos tradicionais não conseguem realizar a identificação.
Outros estudos se dedicaram à observação dos padrões de comportamento dos perfis no Twitter. Davis et al. (2016), por exemplo, chegaram à conclusão de que os bots criam menos conteúdos originais e efetuam retweets em maior frequência e em menor intervalo de tempo do que os humanos. Com o mesmo tipo de análise, observou-se que ao longo da permanência online os humanos diminuem o fluxo de postagens ou de retweets, ao passo que os bots mantém intervalos constantes na sua dinâmica de criação de conteúdo ou de compartilhamentos (Pozzana & Ferrara, 2020).
A presença de bots e ciborgues nos media digitais, quando programados de forma maliciosa, são responsáveis especialmente pelo compartilhamento de informações falsas. Em uma pesquisa que buscou perceber se bots ajudavam na disseminação de conteúdo sem comprovação científica sobre a covid-19, foi concluído que cerca de 66% dos bots no Twitter e no Facebook estavam discutindo temas ligados ao coronavírus e que a proliferação de desinformações sobre o tema, juntamente com a suscetibilidade humana de acreditar e compartilhar informações erradas, podia afetar o curso da pandemia. Na mesma investigação foi apontada que, entre as consequências negativas possíveis da exposição às fake news, estão a descredibilização das vacinas e a escassez no mundo da hidroxicloroquina. O alto consumo gerado pela propagação equivocada de que o fármaco seria útil para a prevenção contra a covid-19 tornou a medicação indisponível para o tratamento das doenças para as quais é recomendada, como o lúpus e a malária (Himelein-Wachowiak et al., 2021).
Os pesquisadores notaram que campanhas eleitorais utilizavam contas automatizadas para formar uma cadeia de “superdisseminadores” e ampliar o alcance dos conteúdos de interesse. Shao et al. (2018) empreenderam uma análise de 14 milhões de mensagens no Twitter que foram responsáveis pelo envio de 400 mil artigos em 2016 e 2017. O objetivo era o de perceber as origens da rápida disseminação de informações provenientes de fontes de baixa credibilidade. Os autores chegaram à conclusão de que bots tinham sido programados para efetuar o retweet das informações segundos após o seu compartilhamento e consideraram como importante para mitigar a proliferação de informações falsas a restrição do uso de contas automatizadas.
Os estudos empreendidos no WhatsApp ligados à atuação de robôs estão relacionados maioritariamente à observação dos chatbots, que são programas de computador capazes de fornecer informações específicas para outros usuários e até emularem uma conversa sobre determinado tema. Atualmente, essa espécie de assistente virtual é utilizada no WhatsApp massivamente por organizações como forma de atendimento aos seus públicos. De forma minoritária, algumas iniciativas tentaram dar conta de perceber a influência de bots ou ciborgues em ambientes políticos. Javed et al. (2022) empreenderam um grande esforço para catalogar milhares de mensagens de texto e imagens a fim de perceber como as informações relacionadas à covid-19 se propagavam no WhatsApp. Após tentarem entender o papel dos bots na disseminação de informações no Twitter, observaram se havia replicação da mesma informação no WhatsApp — eles concluíram que não existia envolvimento significativo de bots na disseminação de informações erradas sobre a pandemia.
5. Metodologia
O presente estudo busca responder à pergunta: como podem ser caracterizados os membros de grupos políticos digitais quando se admite a existência de atores humanos e não-humanos no ambiente? A hipótese que se apresenta para a questão é a de que os grupos são compostos minoritariamente por atores não-humanos, os quais tentam interferir no ambiente político virtual com o objetivo de inflamar a discussão especialmente contra os adversários políticos, embora também possuam tecnologia suficiente para atuarem de forma benéfica para a discussão, seja como moderadores de ambientes virtuais, seja como auxiliares no processo de esclarecimento de notícias falsas.
Para alcançar o objetivo da investigação, efetuou-se uma pesquisa exploratória de caráter descritivo em 104 grupos públicos políticos de WhatsApp[1], os quais compõem o corpus de uma pesquisa netnográfica, de caráter mais ampliado, que visa entender, comparativamente, como a esquerda e a direita brasileiras se comportam no aplicativo de mensagens. Como resultado das observações feitas durante a fase de entrada no ambiente e familiarização (Kozinets, 2014), foi possível classificar, dos 104 grupos, 55 deles como de direita e 49 como de esquerda — para os objetivos deste artigo, a menção sobre a divisão ideológica tem como objetivo apenas esclarecer os critérios utilizados para a escolha dos grupos.
Os espaços de microchats virtuais que permaneceram no corpus, após o corte por espectro político, foram aqueles que possuíam mais membros e davam origem a interações em maior número. Para chegar aos grupos públicos, que são aqueles em que o administrador gerou links com convites de acesso e os distribuiu voluntariamente, efetuou-se a busca nas principais plataformas de candidatos e partidos políticos, bem como em sítios que são aglutinadores de grupos de WhatsApp, como o https://gruposwhats.app/. Ao aceder aos grupos, buscou-se outros espaços com as mesmas características através da técnica bola de neve. A extração dos dados foi efetuada pelo recurso de “exportar conversa” do próprio aplicativo e deu origem a arquivos de texto, áudio, imagem e vídeo com as interações dos grupos. A coleta abrangeu os 30 dias anteriores à segunda volta das eleições brasileiras (entre 30 de outubro de 2020 e 29 de novembro de 2020). Os preceitos éticos foram respeitados pelo pesquisador, que se manteve nos grupos durante todo o período de recolha dos dados, através da aplicação do princípio do consentimento informado e da garantia de anonimização de informações no momento da divulgação dos resultados, como orienta Kozinets (2014).
Os estudos que possuem o WhatsApp como objeto encontram dificuldades sobretudo diante da não disponibilização pelos desenvolvedores de uma API pública, ou seja, é impossível criar aplicações informáticas que “conversem” diretamente com código do mensageiro para extrair informações personalizadas. Em virtude desta dificuldade, mostrou-se necessário mesclar métodos manuais e tratamentos informáticos para responder à pergunta de investigação. Portanto, para identificar os atores não-humanos no WhatsApp, deve-se observar o comportamento dos usuários e verificar se existem indícios de ações automatizadas, como “conteúdo repetido, a frequência de mensagens, o tipo de conteúdo e as informações disponíveis no perfil do usuário” (Machado & Konopacki, 2019, p. 11). Deste modo, a metodologia orienta que se observem quais usuários enviam mais mensagens em um grupo de WhatsApp e em seguida que se verifique se os disparos estão em um número acima da capacidade humana — como o aplicativo não fornece o histórico das mensagens com detalhamento em segundos, considerou-se como membros com indícios de robotização aqueles que efetuaram mais disparos dentro do prazo de 1 minuto.
Para chegar aos membros mais frequentes de cada grupo, mostrou-se necessário realizar alguns tratamentos antes de partir para a análise estatística. Primeiramente, efetuou-se a leitura do arquivo das conversas dos grupos com a planilha eletrônica Excel (figura 1) e depois separou-se o texto em colunas para construir as variáveis de data e hora da mensagem, do número de telefone do remetente e da mensagem em si. Como uma mensagem pode conter mais de um parágrafo, foi necessário criar um filtro para identificar se a linha da planilha representava uma nova mensagem ou se configurava a continuação de uma mesma mensagem. Para tanto, em cada linha foi verificado se as informações numéricas de data, hora e número de telefone estavam presentes. Caso estivessem, tratava-se de uma nova mensagem ou do início de uma mensagem com mais de um parágrafo; caso contrário, a presença de caracteres textuais em vez de informações numéricas nos locais de data, hora e número de telefone sinalizariam que aquela linha da planilha (tabela 1) era parágrafo de continuação de outra mensagem. Em seguida, foram consideradas apenas as linhas da planilha associadas a mensagens de parágrafo único ou linhas que continham apenas o início de um parágrafo. Por fim, ordenaram-se as linhas remanescentes da planilha adotando a seguinte hierarquia: número de telefone, data de envio da mensagem e hora de envio da mensagem.
Telemóvel | < 1 minuto | > 1 minuto | Total |
+55 31 XXXX-8947 | 541 | 219 | 760 |
+55 33 XXXX-6345 | 21 | 101 | 122 |
+55 47 XXXX-6825 | 20 | 94 | 114 |
+351 XXX XXX 214 | 82 | 88 | 170 |
+55 82 XXXX-7415 | 155 | 43 | 198 |
+55 83 XXXX-8295 | 25 | 39 | 64 |
+55 31 XXXX-4366 | 86 | 37 | 123 |
+55 71 XXXX-8210 | 56 | 29 | 85 |
+55 51 XXXX-3440 | 30 | 27 | 57 |
+55 11 XXXX-9057 | 33 | 26 | 59 |
A metodologia determina que a amostra seja composta pelos 10 usuários que mais dispararam mensagens em cada grupo, portanto, a pesquisa teve como corpus 1040 membros. Com esses dados em mãos, efetuou-se a verificação manual para observar se esses usuários que mais enviaram mensagens interagiam com outros, se utilizavam elementos linguísticos de emoção nas mensagens e se era possível perceber aspetos humanos nas informações que o WhatsApp disponibiliza para preenchimento individual, como fotografias, nome do usuário e informações de recado através do recurso status. Os membros serão classificados da seguinte forma: ao se encontrar, dentro do corpus, os usuários com indícios de robotização, será verificado se essa atuação automatizada acontece em complemento à ação humana. Se houver apenas disparos automáticos, o membro será classificado como um bot. Ao se perceber a mesclagem de mensagens automáticas com ações orgânicas, o membro será considerado um ciborgue. Os demais usuários serão entendidos como WhatsAppers.
6. Resultados
Um dos membros que possui forte indício de ser um bot, cujo número de telemóvel se encerra com 7474 (figura 3), foi encontrado no grupo “Juntos com Bolsonaro” (figura 2). Na tabulação realizada no aplicativo Excel, ele ocupou o segundo lugar entre aqueles que mais enviaram mensagens neste grupo, com 361 disparos. Ao observar o comportamento do membro no espaço, percebeu-se que suas intervenções se dedicavam sempre a realçar os propósitos do grupo de elevar o nome de Jair Bolsonaro, de posicionar a esquerda como perigosa e a imprensa brasileira como favorável à ideologia comunista. As mensagens, que variavam entre imagens, vídeos e textos com emojis, eram enviadas pontualmente aos 30 minutos de cada hora, e não possuíam o selo de “Encaminhada” do aplicativo, o que aponta indícios de que eram informações estocadas na base de dados do usuário para serem usadas oportunamente. Não se observou nenhuma tentativa deste usuário de expor argumentos ou responder a perguntas realizadas por outros membros.
Ao se efetuar manualmente a análise do perfil deste usuário (tabela 2), percebeu-se que ele não possuía preenchidas quaisquer marcas de identificação que o WhatsApp disponibiliza e que usuários orgânicos geralmente não deixam totalmente em branco, como por exemplo, a informação de status disponível na aba “configurações”, cujo espaço pode ser preenchido com uma informação editada pelo próprio membro ou escolhida entre diversas mensagens padronizadas ofertadas pelo aplicativo.
Dentro da amostra, foram encontrados 16 usuários que possuíam indícios de ser um bot, o que corresponde a 1,5% do total de membros.
Caracterização | Outros | Bots |
Contagens | 1040 | 16 |
Percentagens | 98,5% | 1,5% |
Para chegar à quantidade de ciborgues, utilizou-se também como referência a tabela com os números de telemóveis mais ativos, da maneira orientada por Machado e Konopacki (2019). Como estão em uma etapa intermediária entre os bots e os WhatsAppers, para identificar os ciborgues é necessário observar sinais de mensagens automatizadas mescladas com interações orgânicas. Segundo Chu et al. (2010), um ciborgue pode ser uma conta automatizada que o programador esporadicamente efetua interações com os usuários dos grupos nos quais se encontra ou contas orgânicas que, na ausência do seu programador, recebe configuração para atuar de maneira robotizada.
Um exemplo de ciborgue foi encontrado no grupo “#MudeSP I Leste 1 (6)”, que era vinculado ao então candidato a prefeito de São Paulo, Arthur do Val, do Movimento Brasil Livre (MBL). A ação do usuário, cujo número de telemóvel se encerra com 4965, iniciou com o compartilhamento de mensagens sequenciais e automatizadas contra o presidente Jair Bolsonaro. Essas mensagens possuíam teor ofensivo e eram enviadas de forma programada a cada cinco minutos pelo emissor, situação que aponta indícios de robotização do usuário. Cabe mencionar que, à época do envio, o candidato Arthur do Val já não era mais um apoiante do presidente Jair Bolsonaro. Essa condição fez os membros do grupo tolerarem as ofensas dirigidas ao Presidente e aos seus apoiantes, mas reagirem à tentativa de criar desordem no ambiente.
Após perceber o incômodo dos demais membros com as suas mensagens sequenciais de caráter afrontoso, o ciborgue (figura 4), cerca de 2 horas após o disparo programado da primeira mensagem, utilizou o aplicativo de forma orgânica (figura 5) e enviou mensagem de voz na qual reafirmava o seu papel de oposicionista ao atual mandatário do Poder Executivo do Brasil. Diante do questionamento (figura 6) feito por outro usuário em relação ao envio de mensagens programadas em um grupo de apoio ao candidato Arthur do Val, que se identifica à direita no espectro político, o ciborgue declarou que também odiava “petistas”, em um movimento que sugere sobre o membro ações não direcionadas a apenas um lado ideológico. Jasyn et al. (2015) também fizeram constatações semelhantes em um artigo que se dedicou à deteção de ciborgues e à observação da atuação desses usuários em ambientes digitais. Os pesquisadores chegaram à conclusão de que a intenção desses membros que mesclam atividades programadas com orgânicas era a de furar a câmara de eco e tentar afetar os demais componentes do espaço com mensagens que afrontem as convicções estabelecidas.
Em oportunidades anteriores, o ciborgue enviava mensagens com programação temporal diferente (a cada hora) com imagens desfavoráveis a Jair Bolsonaro. Embora a análise mais detida fosse capaz de identificar a robotização (tabela 3), os usuários comuns nunca perceberam a ação programada diante da grande quantidade de interações gerais empreendidas no grupo. Nessas intervenções, o ciborgue também nunca percebeu a necessidade de interagir organicamente com os usuários em virtude de seus disparos robotizados não terem sido alvo de questionamentos.
Caracterização | Outros | Ciborgues |
Contagens | 1040 | 7 |
Percentagens | 99,3% | 0,67% |
Ao se observar de forma global a existência de ciborgues a partir da amostra estabelecida nos grupos políticos de WhatsApp estudados, identificou-se a ação de 7 usuários que mesclavam disparos robotizados com utilização orgânica, número que representa 0,67% do total de membros.
Após a deteção dos membros com indícios de robotização e a posterior diferenciação analítica entre aqueles que eram totalmente dedicados às mensagens automatizadas e os usuários que as mesclavam com atividades humanas, chega-se ao número de WhatsAppers através da subtração do total da amostra pelo número de bots e ciborgues identificados. Sobre como emular o comportamento humano em uma programação de bot eficiente, Fornasier (2020) aponta que é necessário que os desenvolvedores criem aplicações que consigam “interagir de forma natural em tópicos, simulando participações emocionalmente atraentes, bem como se esforce para transmitir intenções pseudo-sinceras” (p. 17). Essas informações permitem entender que usuários orgânicos conseguem interagir naturalmente com outros sobre assuntos diversos e exprimir sentimentos sobre cada tema em que desenvolve um diálogo, ou seja, são capazes de responder especificamente a cada pergunta e imprimir emoções proporcionais aos assuntos — no caso dos humanos, percebe-se que emoções são demonstradas de maneira mais intensa que a dos não-humanos (Chu et al., 2012).
Uma típica ação de WhatsApper foi percebida dentro do grupo “MEMES Boulos + Erun” (figura 7), que se dedica a ser um espaço de apoio à candidatura a prefeito da cidade de São Paulo de Guilherme Boulos, o qual possuía a deputada federal Luiza Erundina como vice candidata. Pelo nome do espaço, depreende-se que se trata de um local para compartilhamento de imagens e figurinhas descontraídas sobre a campanha, em um tom diferente dos demais grupos do candidato, que são divididos por eixos temáticos identitários. No exemplo abaixo, o membro, cujo número de telemóvel se encerra com 914, envia um vídeo, que não possui a identificação de “Encaminhado” do WhatsApp, com uma deepfake — “montagens potencialmente mais realistas em função do uso de inteligência artificial” (Dourado, 2020, p. 14) — na qual o então prefeito e candidato à reeleição, Bruno Covas, estava a ser mergulhado no Vale do Anhangabaú, que é um parque público da capital paulista onde comumente se organizam eventos, como apresentações populares, manifestações políticas e espetáculos artísticos.
O contexto crítico do vídeo está ligado à execução do projeto de requalificação e reurbanização do Vale do Anhangabaú, onde foram substituídos gramas e árvores por uma avenida com quiosques, lojas, cafés e restaurantes que seriam licitados para exploração comercial privada. A intencionalidade da ação pode ser notada diante do próprio compartilhamento do vídeo e da explicação do membro de que se trata de uma montagem audiovisual propositalmente falsa com o intuito de criticar a mudança na paisagem urbana empreendida pelo então gestor. O WhatsApper finaliza o aviso com a expressão de riso “kkkk”. Duas outras ações também denotam intervenção humana: a exclusão de uma mensagem enviada anteriormente, o que demonstra intencionalidade na ação seguida de arrependimento, e o compartilhamento de uma notícia que, por ter o carimbo de “Encaminhada” do WhatsApp, revela que se trata de um material retirado de outro espaço em que o autor do envio estava presente.
Caracterização | Outros | WhatsAppers |
Contagens | 23 | 1017 |
Percentagens | 2,3% | 97,7% |
Ao se observar a prevalência geral das ocorrências (tabela 4), percebe-se que os grupos políticos são formados maioritariamente por WhatsAppers, que compõem 97,7% das ocorrências verificadas.
7. Discussão
Diante dos resultados apresentados, os quais demonstraram a existência de atores não-humanos em ambientes digitais ligados à política, percebe-se que a ação desses usuários está relacionada ao compartilhamento programado de mensagens desfavoráveis sobre os adversários políticos. Não foram verificadas, por exemplo, a atuação de robôs e ciborgues no sentido de alterar a narrativa dos fatos a partir de intervenções “inteligentes” focadas no contexto da discussão ou de demonstrar de forma coerente humanização e empatia pelo interlocutor, sinais de expressão de sentimento que os aproximariam das intervenções humanas. Esse resultado destoa do encontrado por Dickerson et al. (2014) em uma pesquisa com foco na deteção de robôs no Twitter, na qual os autores apontam que existe “uma tendência semelhante (mas um pouco mais sutil) de que haja mais expressão de sentimentos negativos por humanos” (p. 627).
Neste trabalho, observou-se que as atuações robotizadas buscavam criticar os adversários, enquanto as intervenções dos WhatsAppers eram capazes de empreender discussões ponderadas sobre os rivais, inclusive a tecer elogios. As programações dos bots possuíam potencial limitado e estavam ligadas ao envio de arquivos de imagem ou ao compartilhamento de notícias que podiam ou não estar armazenadas na base de dados do usuário. No caso dos ciborgues, os complementos orgânicos realizados às ações automatizadas não possuíam relação direta com o tema que foi publicado de forma programada. Os humanos por trás da máquina atuavam no sentido de se defender das críticas dos membros do grupo quando as ações ofensivas robotizadas eram descobertas. Notou-se que a versão humana do ciborgue interagia sobre temas do interesse pessoal do seu administrador, inclusive em momentos distantes temporalmente dos disparos realizados de forma programada.
Os resultados encontrados neste estudo permitem apontar que as ações não-humanas percebíveis em grupos políticos de WhatsApp carecem de aprimoramento no que diz respeito à possibilidade de expressão de sentimentos e emulação das ações humanas, uma vez que se dedicam ao envio automatizado de informações de interesse do programador. Da mesma forma, percebe-se a tendência dos atores não-humanos de buscar inflamar o ambiente no qual se encontram a partir de estratégias diferentes — quando presentes em grupos com ideologia diversa, buscam disparar conteúdos críticos ao suposto político de preferência do espaço com a intenção de furar a câmara de eco; quando fazem parte de um grupo de cuja ideologia compartilham, buscam incendiar o ambiente através do envio de munição crítica aos adversários políticos, seja para instigar o debate acalorado no próprio grupo, seja para fornecer elementos que desacreditem os adversários com a finalidade de encaminhamento em outros espaços de ideologia semelhante. Em resumo, a atuação robotizada em grupos políticos de WhatsApp busca reforçar a polarização a partir da incitação ao comportamento raivoso sobre temas ligados aos candidatos.
As observações apontadas até aqui deixam evidente que o fenômeno que este artigo se propôs a estudar é de origem política em campanhas eleitorais, cujo impacto já foi verificado, por exemplo, no estudo sobre a influência russa nas eleições para presidente dos Estados Unidos, em 2016 (Weedon et al., 2017). A utilização de contas robotizadas que compartilham mensagens específicas se tornou um ingrediente indispensável das campanhas e para o processo de construção de imagem e de núcleos de apoios dos políticos, uma vez que é uma forma barata e eficaz de efetuar o impulsionamento de narrativas que, quando aplicadas em uma escala ampliada, alegadamente têm o poder de alterar a opinião pública (Arnaudo, 2017). Os estudos mais recentes se aproximam dos resultados encontrados neste estudo, que é o da utilização dos bots e dos ciborgues como ferramenta para diminuir os adversários políticos. Braga e Carlomagno (2018) já apontaram a necessidade de se preocupar sobretudo com os aspetos negativos do fenômeno, como a utilização dos atores não-humanos no processo de divulgação de notícias falsas intencionalmente produzidas e dos discursos de ódio que circulam contra os adversários políticos nas bases digitais de candidatos durante os pleitos eleitorais.
A constatação efetuada neste artigo de que os atores não-humanos atuam em grupos políticos de WhatsApp para disparar mensagens de interesse de candidatos permite o entendimento de que essas contas automatizadas fazem parte de estratégias eleitorais que buscam direcionar conteúdos e amplificá-los com objetivo de influenciar os humanos. Percebe-se que os perfis inorgânicos em um ambiente virtual síncrono, como o WhatsApp, exploram ao seu favor a propriedade do mensageiro de permitir a alta difusão de mensagens nos grupos. Essa característica impõe nos demais utilizadores a dificuldade de verificar se trata-se de um robô ou um ciborgue que está a efetuar disparos programados. Enquanto em outras plataformas — como o Twitter e o Weibo — é possível aceder a uma página de perfil que concentra as informações do membro e organiza cronologicamente mensagens enviadas, em grupos de WhatsApp a tarefa de contextualização de mensagens de um mesmo usuário, em meio às interações de diversos outros membros, torna difícil a tarefa de conferir se partem ou não de contas com indícios de robotização.
No campo académico, o olhar sobre a utilização de contas automatizadas no WhatsApp acompanha sobretudo os estudos sobre a falsidade como estratégia política, como os fenómenos de desinformação e discurso de ódio. Constatou-se nesta pesquisa que, apesar de os bots e os ciborgues não representarem nem de perto a maioria das contas, a presença desses membros não-humanos no ambiente contribui para o objetivo de detração de adversários políticos por apoiantes dos candidatos rivais. Notou-se que os programadores desses usuários inorgânicos se aproveitam da possibilidade de a internet permitir que atores mal-intencionados se passem por pessoas confiáveis e criem estratégias de comunicação cujo principal valor está na ocultação das intenções.
Nesta paisagem de informações cruzadas que são difíceis de serem verificadas, acredita-se que os cidadãos precisam de instrumentos para participar da democracia que os tornem capazes de se informar e de saber detetar campanhas de desinformação, seus autores, a extensão e a finalidade. Sem essa camada de transparência informacional que ajude as pessoas a se engajarem genuinamente em processos eleitorais, em um cenário de ampliação do uso de contas automatizadas, entende-se que a tarefa de efetuar escolhas reais durante as campanhas políticas se torne ainda mais difícil pelas pessoas, situação que seria capaz até de causar um impacto negativo no ambiente democrático do país.
Apesar de as participações políticas dos membros não-humanos encontradas neste estudo terem o intuito de macular a imagem dos adversários políticos para finalidades eleitorais, é importante mencionar que há iniciativas robotizadas benéficas que buscam contribuir com o processo democrático. Um exemplo é o robô criado pelo TSE para atuar no WhatsApp, mensageiro que passou por uma escalada de utilização a partir de 2016 em países como Brasil, Índia e Indonésia (Bittencourt & Rosa, 2021). O robô do TSE, que se assemelha a um assistente virtual, mostra preocupação especial com o esclarecimento de notícias falsas que envolvam o processo eleitoral brasileiro. O aplicativo permite, por exemplo, que, ao se pesquisar sobre um tema, sejam fornecidos resultados baseados no trabalho das agências de fact-checking, como AFP, Agência Lupa, Aos Fatos, Boatos.org, Comprova, E-Farsas, Estadão Verifica, Fato ou Fake e UOL Confere. Outra aplicação positiva refere-se à utilização de atores não-humanos como moderadores de grupos virtuais em grupos com finalidades políticas, especialmente aqueles criados pelo Poder Público para receber propostas que podem dar origem a projetos de lei.
Em relação à identificação dos membros dos grupos, cabe mencionar a dificuldade de se apontar com precisão a existência de contas inteira ou parcialmente robotizadas. Os estudos empreendidos até aqui trabalham com a ideia de “possibilidade de ser”, uma vez que o objetivo dos bots e dos ciborgues é justamente de se parecerem reais e se passarem por uma conta orgânica. Em redes sociais com API pública, como o Twitter, no qual é possível realizar uma busca automatizada de contas com indícios de robotização, os detetores de bots, a exemplo do sítio PegaBot, não assinalam perentoriamente se uma conta é ou não um robô, mas indicam uma probabilidade. Em aplicativos sem uma API pública, como o WhatsApp, as identificações de contas automatizadas tendem a ser tornar ainda mais difíceis à medida que sejam incorporadas na programação tecnologias informáticas avançadas, como inteligência artificial e aprendizado de máquina.
8. Conclusões
Este artigo buscou caracterizar os membros de grupos políticos de WhatsApp e analisar suas ações no período das eleições brasileiras de 2020. Os resultados da pesquisa apontaram, ainda que em caráter minoritário, a existência de bots e ciborgues entre os WhatsAppers. Essas contas se dedicam a difundir informações em períodos programados e possuem o objetivo de atacar os adversários políticos e de reforçar a imagem dos candidatos de preferência dos grupos.
Para trabalhos futuros, percebe-se como fundamental a realização de novos estudos com foco na deteção de indícios de robotização em grupos de WhatsApp, de modo a dar musculatura metodológica às pesquisas. A utilização combinada de métodos digitais, para recolha e tratamento de dados, e métodos tradicionais, sobretudo para a análise dos sentimentos, podem dar resultados mais precisos às pesquisas desenvolvidas. Na mesma linha, é importante incluir como objeto o Telegram, mensageiro digital semelhante ao WhatsApp, mas que permite a criação de supergrupos que podem receber milhares de usuários ao mesmo tempo, os quais podem ser alvos de contas robotizadas em maior escala. Nesses casos, assinala-se como importante observar se a ampliação do número de usuários torna mais difícil a deteção de membros não-humanos, tanto por pesquisadores que desejam investigar suas ações quanto pelos demais usuários que consomem os conteúdos sem supostamente distinguir se partem de um perfil orgânico ou robotizado.
Referências
Arnaudo, D. (2017). Computational propaganda in Brazil: social bots during elections. Computational Propaganda Research Project, 8, 1—39.https://ora.ox.ac.uk/objects/uuid:e88de32c-baaa-4835-bb76-e00473457f46
Barbosa, S. (2021). COMUNIX WhatsAppers: The Community School in Portugal and Spain. Political Studies Review, 19(2), 171—178. https://doi.org/10.1177/1478929920951076
Bittencourt, G., & Rosa, J. M. (2021). Como abrir a caixa-preta do WhatsApp: mapeamento dos métodos de publicações científicas que tratam sobre política em uma plataforma fechada de mídia digital. Vozes & Diálogo, 20(1), 7—20. https://doi.org/10.14210/vd.v20n1.p7-20
Braga, S., Carlomagno, M. (2018). Eleições como de costume? Uma análise longitudinal das mudanças provocadas nas campanhas eleitorais brasileiras pelas tecnologias digitais (1998-2016). Revista Brasileira de Ciência Política, 26(2), 07—62. https://doi.org/10.1590/0103-335220182601
Campos Mello, P. (2018, 18 de Outubro). Empresários bancam campanha contra o PT pelo WhatsApp. Folha de São Paulo. https://www1.folha.uol.com.br/amp/poder/2018/10/empresarios-bancam-campanha-contra-o-pt-pelo-whatsapp.shtml
Chu Z., Steven G., Haining W., & Sushil, J. (2010). Who is tweeting on Twitter: human, bot, or cyborg?. Proceedings of the 26th Annual Computer Security Applications Conference (ACSAC '10), USA, 21—30. https://doi.org/10.1145/1920261.1920265
____. (2012). Detecting Automation of Twitter accounts: are you a human, bot, or cyborg? IEEE Transactions on Dependable and Secure Computing, .(9), 811—24. https://doi.org/10.1109/TDSC.2012.75
Dourado, T. M. S. G. (2020). Fake News na eleição presidencial de 2018 no Brasil. [Doctoral dissertation, Universidade Federal da Bahia]. Repositório Institucional da Universidade Federal da Bahia. http://repositorio.ufba.br/ri/handle/ri/31967
Davis, C., Varol, O., Ferrara, E., Flammini, A., & Menczer, F. (2016). BotOrNot: A system to evaluate social bots. Proceedings of the 25th International Conference Companion on World Wide Web (WWW’16 Companion), Canada, 273—274. https://doi.org/10.1145/2872518.2889302
Dickerson, J.P., Kagan, V., & Subrahmanian, V. (2014, 17—20 de Agosto). Using sentiment to detect bots on twitter: Are humans more opinionated than bots? Proceedings of the IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining (ASONAM), China, 620—127. http://doi.org/10.1109/asonam.2014.6921650
Fornasier, M. O. (2020). O uso de bots sociais como ameaça à democracia. Revista Brasileira de Políticas Públicas, 10(1), 13—31. https://doi.org/10.5102/rbpp.v10i1.6453
Himelein-Wachowiak, M., Giorgi, S., Devoto, A., Rahman, M., Ungar, L., Schwartz, H.A., Epstein, D.H., Leggio, L., & Curtis, B. (2021). Bots and Misinformation Spread on Social Media: Implications for COVID-19. Journal of Medical Internet Research, 23(5), 1—11. https://doi.org/10.2196/26933
Howard, P. N., Wooley, S., & Calo, R. (2018). Algorithms, bots, and political communication in the US 2016 election: the challenge of automated political communication for election law and administration. Journal of Information Technology & Politics, 15(2), 81—93. https://doi.org/10.1080/19331681.2018.1448735
Kozinets, R. V. (2014). Netnografia: Realizando pesquisa etnográfica online. Penso.
Jasyn, L., Waggle, J., & Fisher, D. R. (2015). An empirical examination of echo chambers in US climate policy networks. Nature Climate Change,5(1), 782—786. https://doi.org/10.1038/nclimate2666
Javed, R.T., Usama, M., & Iqbal, W. (2022). A deep dive into COVID-19-related messages on WhatsApp in Pakistan. Social Network Analysis and Mining, 12(5), 1—16. https://doi.org/10.1007/s13278-021-00833-0
Latour, B. (1985). As visões do Espírito: uma introdução à antropologia das ciências e das técnicas. Culture et Technique, 14(1), 79—96. https://www.persee.fr/doc/reso_0751-7971_1987_num_5_27_1322
______. (1996). On actor-network theory: a few clarifications. Soziale Welt, 47(4), 369—381. https://www.jstor.org/stable/40878163
______. (2017). On actor-network theory. A few clarifications, plus more than a few complications. Logos, 27(1), 173—197. https://logosjournal.ru/articles/387348/
Latour, B., & Woolgar, S. (1997). A vida de laboratório: a produção dos fatos científicos (Trad. Angela R. Vianna). Relume Dumará (Obra original publicada em 1988).
Machado, C., & Konopacki, M. (2019). Poder computacional: automação no uso do WhatsApp nas eleições: estudo sobre o uso de ferramentas de automação para o impulsionamento digital de campanhas políticas nas eleições brasileiras de 2018. Instituto de Tecnologia e Sociedade do Rio de Janeiro. https://itsrio.org/wp-content/uploads/2018/10/Poder-Computacional-Relatorio-Whatsapp-Eleicoes-ITS.pdf
Melo, M. F. A. Q. (2007). Seguindo as pipas com a metodologia da TAR. Revista do Departamento de Psicologia, 1.(1), 169—186. https://doi.org/10.1590/S0104-80232007000100013.
Paiva, F, Medeiros, H, & Butcher, I. (2020, 16 de Outubro). WhatsApp nas eleições: as estratégias dos prefeitáveis. Mobile Time. https://www.mobiletime.com.br/noticias/16/10/2020/whatsapp-nas-eleicoes-2020-a-estrategia-dos-prefeitaveis/
Pozzana, I., & Ferrara, E. (2020) Measuring Bot and Human Behavioral Dynamics. Frontier in Physics. .(1), 1—11. https://doi.org/10.3389/fphy.2020.00125
Ratkiewicz, J., Conover, M., Meiss, M., Goncalves, B., Flammini, A., & Menczer, F. (2021). Detecting and Tracking Political Abuse in Social Media. Proceedings of the International AAAI Conference on Web and Social Media, 5(1), 297—304. https://ojs.aaai.org/index.php/ICWSM/article/view/14127
Ruediger, M. A., Liguori Filho, C. A, Santos, E. F., Santos, G. K., Salvador, J. P. F., Karolczak, R. M., Guimarães, T., Aquino, T. M., & Silveira, V. D. (2019). Bots e o direito eleitoral brasileiro: eleições 2018. FGV DAPP. http://hdl.handle.net/10438/26227
Santos, J.G., Freitas, M.S., Aldé, A., Santos, K.M., & Cunha, V.C. (2019). WhatsApp, política mobile e desinformação: a hidra nas eleições presidenciais de 2018. Comunicação & Sociedade, 41(2), 307—334. https://doi.org/10.15603/2175-7755/cs.v41n2p307-334
Securities and Exchange Commission of the United States. (2022). Twitter, Inc. https://www.sec.gov/Archives/edgar/data/1418091/000156459014003474/twtr-10q_20140630.htm
Shao, C., Ciampaglia, G.L., Varol, O., Yang K-C, F. A., & Menczer, F. (2018) The spread of low-credibility content by social bots. Nature Communications, 9(1), 1—9. https://doi.org/10.1038/s41467-018-06930-7
Tribunal Superior Eleitoral. (2022). TSE e WhatsApp celebram acordo para combate à desinformação nas eleições de 2022. https://www.tse.jus.br/comunicacao/noticias/2022/Fevereiro/tse-e-whatsapp-celebram-acordo-para-combate-a-desinformacao-nas-eleicoes-2022
Twitter Safety [@TwitterSafety]. (2022, 16 de Fevereiro). Get your bots in here! Remember when we chatted about all things, #GoodBots? Well now we are celebrating [Video attached]. [Tweet]. Twitter. https://twitter.com/TwitterSafety/status/1494040671048581123
Weedon, J., Nuland, W., & Stamos, A. (2017, 27 de Abril). Information operations and Facebook. META. https://about.fb.com/wp-content/uploads/2017/04/facebook-and-information-operations-v1.pdf
Yan, J. (2009). Bot, Cyborg and Automated Turing Test. In Christianson, B., Crispo, B., Malcolm, J.A., Roe, M. (eds) Security Protocols 2006. Lecture Notes in Computer Science, 5087 (pp. 190–197). Springer. https://doi.org/10.1007/978-3-642-04904-0_26
Zago, M., Nespoli, P, Papamartzivanos, D., Pérez, M. G., Mármol, F. G., Kambourakis, G., & Pérez, G. M. (2019). Screening out social bots interference: are there any silver bullets? IEEE Communications Magazine, 57(8), 98—104. https://doi.org/10.1109/MCOM.2019.1800520.
Notas
Autor notes