Secciones
Referencias
Resumen
Servicios
Buscar
Fuente


Racismo Algorítmico e Colonialismo Digital: As Literacias Críticas na Era da Inteligência Artificial
Algorithmic Racism and Digital Colonialism: Critical Literacies in the Age of Artificial Intelligence
Racismo Algorítmico y Colonialismo Digital: Alfabetizaciones Críticas en la Era de la Inteligencia Artificial
Revista Comunicando, vol. 14, núm. 1, e025005, 2025
Associação Portuguesa de Ciências da Comunicação

Secção Temática/Thematic Section/Sección Temática. Artigos/Articles/Artículos

Revista Comunicando
Associação Portuguesa de Ciências da Comunicação, Portugal
ISSN: 2184-0636
ISSN-e: 2182-4037
Periodicidade: Frecuencia continua
vol. 14, núm. 1, e025005, 2025

Recepção: 29 Outubro 2024

Aprovação: 06 Maio 2025

Publicado: 03 Junho 2025


Este trabalho está sob uma Licença Internacional Creative Commons Atribuição 4.0.

Resumo: Este artigo analisa o racismo algorítmico e o colonialismo digital, destacando como a inteligência artificial (IA) e os algoritmos contribuem para manter as desigualdades e preconceitos históricos entre o Norte e o Sul Global. A revisão da literatura indica que, apesar de se autoproclamarem neutras, as tecnologias de IA demonstram valores e preconceitos embutidos. Tecnologias como o reconhecimento facial e os motores de busca perpetuam estereótipos e excluem minorias. Também a prática de “colonialismo de dados” explora informações do Sul Global para benefício corporativo, diminuindo a importância do conhecimento local. O artigo argumenta que é importante adotar uma perspetiva decolonial, promovendo competências críticas e algorítmicas para capacitar grupos marginalizados a questionar e transformar estas tecnologias. Através de práticas inclusivas e participação na governança, propõe-se um futuro digital mais equitativo, no qual a IA promova a diversidade e a justiça social, representando uma diversidade de vozes e experiências culturais.

Palavras-chave: Inclusão e Justiça Algorítmica, Preconceito, Justiça Algorítmica, Ética e Transparência em IA.

Abstract: This article analyses algorithmic racism and digital colonialism, highlighting how artificial intelligence (AI) and algorithms contribute to maintaining historical inequalities and prejudices between the Global North and South. The literature review indicates that, despite their self-proclaimed neutrality, AI technologies demonstrate embedded values and prejudices. Technologies such as facial recognition and search engines perpetuate stereotypes and exclude minorities. Also, the practice of “data colonialism” exploits information from the Global South for corporate benefit, diminishing the importance of local knowledge. The article argues that it is important to adopt a decolonial perspective, promoting critical and algorithmic skills to empower marginalised groups to question and transform these technologies. Through inclusive practices and participation in governance, a more equitable digital future is proposed, in which AI promotes diversity and social justice, representing a diversity of voices and cultural experiences.

Keywords: Inclusion and Algorithmic Justice, Prejudice, Algorithmic Justice, Ethics and Transparency in AI.

Resumen: Este artículo analiza el racismo algorítmico y el colonialismo digital, destacando cómo la inteligencia artificial (IA) y los algoritmos contribuyen a mantener desigualdades y prejuicios históricos entre el Norte y el Sur Global. La revisión de la literatura indica que, a pesar de su autoproclamada neutralidad, las tecnologías de IA demuestran valores y prejuicios integrados. Tecnologías como el reconocimiento facial y los motores de búsqueda perpetúan estereotipos y excluyen a las minorías. Además, la práctica de “colonialismo de datos” explota la información del Sur Global en beneficio corporativo, disminuyendo la relevancia del conocimiento local. El artículo sostiene que es importante adoptar una perspectiva decolonial, promoviendo habilidades críticas y algorítmicas para empoderar a los grupos marginados a cuestionar y transformar estas tecnologías. A través de prácticas inclusivas y participación en la gobernanza, se propone un futuro digital más equitativo, en el que la IA promueva la diversidad y la justicia social, representando una diversidad de voces y experiencias culturales.

Palabras clave: Inclusión y Justicia Algorítmica, Prejuicio, Justicia Algorítmica, Ética y Transparencia en IA.

1. Introdução

O progresso das tecnologias digitais e da inteligência artificial (IA) tem gerado discussões sobre como os algoritmos podem manter preconceitos e desigualdades, destacando a importância de examinar de forma crítica o racismo algorítmico e as relações de poder que são replicadas no ambiente online. A IA, muitas vezes criada no Norte Global, replica ideologias e preconceitos nas sociedades em que é desenvolvida, levando à criação de sistemas que perpetuam e intensificam discriminações (Benjamin, 2019; Noble, 2018). Estes sistemas digitais, em vez de serem imparciais, demonstram ideias preconceituosas que mantêm desigualdades raciais, excluindo ou ignorando vozes do Sul Global. Neste sentido, é premente reconhecer a importância de situar a origem e aplicação dos algoritmos que disseminam notícias falsas e sustentam preconceitos dentro de um cenário histórico e social caracterizado por disparidades estruturais (Eubanks, 2018).

Os algoritmos que sustentam as plataformas digitais são desenvolvidos com dados que refletem preconceitos e desigualdades sociais, promovendo estereótipos e exclusão. Por exemplo, é possível observar que os sistemas de reconhecimento facial apresentam uma tendência significativa de falhar na identificação precisa de pessoas negras e outras minorias étnicas devido ao uso predominante de dados de treinamento de pessoas brancas (Buolamwini & Gebru, 2018). Essa diferença não só mantém estereótipos negativos sobre minorias raciais e étnicas, mas também origina problemas como a vigilância excessiva e a criminalização de pessoas racializadas. Daqui decorre que o racismo algorítmico não plasma apenas preconceitos pessoais, como também reforça as hierarquias de poder que ao longo da história têm excluído comunidades do Sul Global, assumindo-se, assim, como uma reprodução digital das práticas coloniais.

Estes desafios exigem competências de literacias cívicas e críticas que capacitem as pessoas para uma participação e uma cidadania ativas e despertas, que possibilitem uma avaliação crítica das tecnologias digitais e do seu impacto na sociedade. As literacias decoloniais questionam as premissas e valores dos sistemas de IA, desafiando a hegemonia do Norte Global e promovendo a valorização de diferentes formas de conhecimento e experiência (Mignolo, 2011). Ao promover o pensamento crítico e capacidades para identificar as diversas formas de opressão perpetuadas pelos algoritmos, podemos cultivar uma cultura digital que considere a diversidade e incentive a justiça social, combatendo o colonialismo digital e estabelecendo pontes inclusivas e equitativas no ambiente digital (Mbembe, 2019).

A discriminação algorítmica e a disseminação de notícias falsas são questões sérias e urgentes que necessitam de uma análise crítica e descolonial para combater as estruturas de poder que mantêm a marginalização e exclusão de comunidades do Sul Global. Este artigo visa examinar a conexão entre IA, disseminação de informações falsas e discriminação racial para evidenciar as falhas e perigos dos algoritmos, procurando sugerir formas de fomentar uma cultura digital que combata o racismo e promova a diversidade e inclusão.

Este artigo baseia-se numa revisão não sistemática da literatura, ancorada em estudos publicados nas últimas duas décadas, que investigam racismo algorítmico, colonialismo digital e literacias críticas. Procurámos estabelecer uma interseção. Neste sentido, foram consideradas as principais contribuições teóricas e empíricas que analisam como é que os sistemas algorítmicos perpetuam desigualdades estruturais e promovem uma hierarquia de conhecimento dominada pelo Norte Global. O objetivo deste mapeamento teórico foi não apenas sintetizar o estado da arte sobre o tema, mas também estabelecer um quadro crítico que sustentasse a argumentação proposta. A discussão final do artigo decorre diretamente das evidências apresentadas na literatura, articuladas a uma perspetiva decolonial que propõe estratégias para repensar o desenvolvimento e a governança dos sistemas algorítmicos. Assumimos que o artigo adota um posicionamento analítico e argumentativo, estruturando-se a partir da articulação entre literatura especializada e um conjunto de reflexões críticas sobre o impacto da IA e dos algoritmos na manutenção de desigualdades raciais e epistémicas.

2. Desinformação, Algoritmos e a Dicotomia Norte/Sul Global

O incentivo à propagação de notícias falsas, sobretudo por novos atores sociais nas plataformas online (Amaral & Santos, 2019), é impulsionado por algoritmos que favorecem o compartilhamento de conteúdo sensacionalista, contribuindo para a polarização e para a disseminação de narrativas racistas e discriminatórias (Tufekci, 2017). Os algoritmos das plataformas online foram desenvolvidos para aumentar o engagement ao expandir informações que perpetuam preconceitos e estereótipos, fomentando discursos de ódio e formando “bolhas de filtro” que limitam os utilizadores a uma bolha de opiniões (Pariser, 2011). Esta tendência prejudica principalmente minorias, cujas narrativas e visões são frequentemente invisibilizadas, silenciadas ou distorcidas por sistemas que priorizam perspetivas do Norte Global. Algoritmos em redes sociais e media sociais não selecionam apenas o conteúdo que é exibido, como também moldam a visão da realidade, perpetuando desigualdades e reforçando padrões predominantes (Gillespie, 2018).

A importância dos algoritmos na propagação de informações falsas é fundamental para entender como as disparidades entre o Norte e o Sul Global persistem e são fortalecidas (Couldry & Mejias, 2019). Os algoritmos que governam as plataformas digitais são líderes na disseminação de informações, tendendo a favorecer conteúdos sensacionalistas e polarizadores, o que resulta na propagação de narrativas distorcidas e desinformativas. Esta questão é particularmente central no impacto nas comunidades do Sul Global, que frequentemente são atingidas por campanhas de desinformação que reforçam estereótipos e preconceitos, mantendo desigualdades de poder.

Durante a COVID-19, a propagação de notícias falsas teve sérias consequências, principalmente em países do Sul Global, onde há pouca informação precisa que esteja disponível. Ao procurarem dar destaque a conteúdos que geram maior engagement, os algoritmos dos media sociais contribuíram para a disseminação de teorias da conspiração e notícias falsas, afetando a eficácia das medidas de saúde pública e impactando mais fortemente as populações vulneráveis. Este exemplo demonstrou como os algoritmos perpetuam as desigualdades globais, ao dar preferência a conteúdos que refletem as narrativas do Norte Global.

Na separação entre o Norte e o Sul Global, a IA e os algoritmos estão a ser utilizados para manter desigualdades de poder e disseminar visões eurocêntricas que distorcem a realidade das pessoas no Sul Global. As ferramentas digitais são usadas para reforçar estruturas de poder que mantêm a hegemonia cultural e de conhecimento do hemisfério Norte, gerando um imperialismo de informações que impõe perspetivas de mundo eurocêntricas e unilaterais (Couldry & Mejias, 2019). A imposição destas narrativas limita outras formas de conhecimento, perpetua a estereotipagem e alimenta a desinformação. Neste sentido, a colonização dos dados resulta na redução da autonomia e da autodeterminação digital das comunidades do Sul Global, que são apenas vistas como provedoras de dados (Couldry & Mejias, 2019; Mbembe, 2019).

O preconceito algorítmico tem impacto direto nas representações de pessoas negras e outros grupos racializados em plataformas digitais. Manter conteúdos que promovem estereótipos prejudiciais contribui para a criminalização e desumanização desses grupos, mantendo relações de poder que estão enraizadas desde o período colonial (Benjamin, 2019). Para as mulheres negras, a interseção de racismo e sexismo é claramente percetível (Crenshaw, 1991), atendendo a que os algoritmos frequentemente promovem estereótipos que as representam como sexualizadas em excesso e submissas, promovendo assim violências simbólicas e estruturais (Collins, 2000). Dessa forma, a IA e os algoritmos não só replicam preconceitos existentes, mas também têm participação ativa na criação de realidades opressivas que limitam as oportunidades de representação e luta das comunidades marginalizadas.

As literacias cívicas e críticas são essenciais para lidar com a disseminação de informações falsas na era digital. Ao adquirir competências para analisar e questionar as fontes de informação e os processos de filtragem e apresentação feitos por algoritmos, as pessoas podem tornar-se mais conscientes das influências de poder que impactam na sua visão de mundo. A importância dessa literacia crítica é especialmente relevante no Sul Global, onde as histórias prevalentes costumam ser impostas para silenciar as vozes e experiências locais.

A compreensão dos algoritmos presentes em redes sociais e outras plataformas digitais depende da literacia algorítmica. Ao compreender como é que os algoritmos beneficiam certos tipos de conteúdo e o efeito que essa prática tem na disseminação de desinformação, os utilizadores podem tornar-se mais críticos em relação que consomem e partilham. Além disso, a literacia algorítmica pode capacitar as comunidades do Sul Global a desenvolver as suas próprias estratégias para enfrentar a desinformação e partilhar narrativas que reflitam as suas realidades e experiências.

A literacia decolonial pode ser definida como uma abordagem crítica à produção, circulação e validação do conhecimento, que busca desmontar as hierarquias epistémicas impostas pelo colonialismo e sustentadas pelo Norte Global. Inspirada nos estudos decoloniais (Escobar, 2020; Mignolo, 2011), essa literacia enfatiza a necessidade de reconhecer e valorizar epistemologias subalternizadas, como os saberes indígenas, africanos e afro-diaspóricos, desafiando a imposição de um único modelo de racionalidade científica e tecnológica (Quijano, 2000).

No campo das tecnologias digitais, a literacia decolonial propõe um questionamento crítico sobre os processos algorítmicos, as infraestruturas de dados e as lógicas capitalistas que regem a IA, revelando como estas ferramentas reproduzem estruturas de poder excludentes (Couldry & Mejias, 2019). Essa abordagem expande a noção tradicional de literacia digital, que se concentra no domínio técnico dos meios digitais (Selwyn, 2009), ao incorporar uma perspetiva política e epistemológica que problematiza a neutralidade dos algoritmos e a apropriação de dados do Sul Global para benefício das grandes corporações tecnológicas (Zuboff, 2019).

Entendida dessa forma, a literacia decolonial não se limita à crítica, mas também propõe estratégias para a construção de uma cultura digital mais inclusiva e justa, o que inclui o desenvolvimento de práticas pedagógicas que rompam com a “colonialidade do saber” (Quijano, 2000), a promoção de governança participativa em tecnologias algorítmicas (Sloane et al., 2022) e o fortalecimento de narrativas locais que desafiem a homogeneização cultural imposta pelo colonialismo digital (Benjamin, 2019). Entendida desta forma, a literacia decolonial não se limita à crítica, mas também propõe estratégias para a construção de uma cultura digital mais inclusiva e justa.

Ao invés de aceitar a neutralidade dos algoritmos e da IA, a literacia decolonial questiona as suas bases estruturais, expondo como esses sistemas reproduzem desigualdades históricas, reforçam a exclusão e consolidam uma economia de dados que beneficia maioritariamente as big techs do Norte Global (Couldry & Mejias, 2019).

No entanto, apesar do seu potencial transformador, a literacia decolonial enfrenta barreiras significativas, especialmente devido ao domínio das grandes empresas de tecnologia sobre as infraestruturas digitais. A Google, a Meta, a Microsoft, a Apple e a Amazon detêm um controlo quase absoluto sobre os sistemas de IA, as plataformas de redes sociais e os serviços de armazenamento de dados, tornando difícil a implementação de alternativas que não estejam sujeitas às suas lógicas de extração e vigilância (Zuboff, 2019). A forma como os algoritmos operam também marginaliza epistemologias do Sul ao privilegiar conteúdos em inglês e valorizar narrativas dominantes do Norte Global (Noble, 2018). Isto resulta na invisibilidade de conhecimentos locais, dificultando a construção de um espaço digital verdadeiramente plural e democrático (Eubanks, 2018). Para além disso, a dependência tecnológica de muitos países do Sul Global agrava este problema, pois a falta de infraestruturas próprias obriga-os a utilizar serviços e plataformas controladas por empresas estrangeiras, o que limita a soberania digital e a autodeterminação informacional (Graham & De Sabbata, 2020).

Outra barreira significativa para a literacia decolonial é a resistência institucional à decolonização do conhecimento. A educação em tecnologia continua dominada por uma visão tecnocêntrica que naturaliza a hegemonia do Norte Global e ignora abordagens críticas sobre os impactos sociais dos algoritmos e da IA (Selwyn, 2009). Esta abordagem tecnocrática impede a inclusão de perspetivas que desafiem as relações de poder estabelecidas.

Neste sentido, é fundamental ter conhecimento de que a literacia decolonial permite compreender como é que a desinformação e os algoritmos mantêm a hegemonia do Norte Global. Esta literacia questiona a crença de que apenas o conhecimento gerado e partilhado pelo hemisfério Norte é legítimo, encorajando o reconhecimento de outras formas de conhecimento e vivências que muitas vezes são negligenciadas. Ao optar por uma perspetiva decolonial, as pessoas podem desafiar a validade das narrativas impostas pelos algoritmos e criar estratégias de resistência que estimulem uma visão global mais diversificada e aberta.

Finalmente, é crucial sublinhar que a promoção das literacias cívicas e críticas, literacia algorítmica e literacia decolonial no Sul Global não se trata apenas de capacitar individualmente, mas também de garantir justiça social. Ao preparar as comunidades para desafiar e se opor à propagação de informações falsas e ao poder dos algoritmos dominantes, podemos incentivar a formação de um ambiente digital mais justo e abrangente, no qual as vozes do Sul Global possam expressar-se e serem levadas em consideração.

3. Racismo Algorítmico

A literatura científica tem vindo a mostrar que os sistemas de IA não são neutros e podem perpetuar preconceitos sociais e raciais, desmentindo o mito da neutralidade algorítmica (Noble, 2018). A assunção de que os algoritmos são imparciais, objetivos e podem analisar dados sem influência humana não assume o contexto em que são desenvolvidos, treinados e utilizados por indivíduos inseridos em ambientes sociais, culturais e históricos com desigualdades (Eubanks, 2018). Nesta linha de raciocínio, Noble (2018) demonstra como os motores de pesquisa, como o Google, são baseados em estruturas que espelham a lógica capitalista e patriarcal da sociedade, promovendo estereótipos que mantêm a opressão de alguns grupos (Chun, 2021).

Os motores de pesquisa, frequentemente utilizados como a principal fonte de informação por milhões de pessoas, não atuam apenas como reflexos passivos da realidade; eles também influenciam ativamente as nossas perceções e compreensões do mundo (Noble, 2018). Quando os resultados da pesquisa perpetuam estereótipos raciais e de género, como a sexualização de mulheres negras ou a criminalização de homens negros, os algoritmos funcionam como propagadores de preconceitos, validando essas representações na sociedade. Neste sentido, os algoritmos não só reproduzem a realidade, como também a criam, perpetuando estereótipos que mantêm sistemas de opressão.

Efetivamente, os algoritmos desempenham um papel fundamental na forma como a informação é filtrada e distribuída aos utilizadores, potenciando as denominadas “bolhas de filtro” (Bakir & McStay, 2018; Pariser, 2011) que limitam a exposição dos utilizadores a informações que contradigam as suas crenças. Neste contexto algorítmico, alguns conteúdos são favorecidos e outros condicionados ou invisibilizados, o que diminui a variedade de pontos de vista e alimenta preconceitos e desinformação (O'Neil, 2017). Daqui decorre que a literacia crítica (Brites et al., 2018; Kellner & Share, 2007) é essencial atendendo a ajuda os utilizadores a compreender e questionar os processos que influenciam a informação disponível. Com efeito, a capacidade de ler, interpretar e questionar criticamente as mensagens dos meios de comunicação pode mostrar como os algoritmos não são neutros, mas sim construídos para perpetuar relações de poder (Diakopoulos, 2015). A capacitação dos utilizadores em literacia algorítmica pode ajudá-los a entender o funcionamento dos algoritmos, a influência de conjuntos de dados enviesados nas suas decisões e o impacto na sua perceção da realidade (Ananny, 2018).

A literacia decolonial propõe-se a questionar e desafiar a supremacia do Norte Global na criação de conhecimento e tecnologia, apresentando uma perspetiva crítica para analisar a forma como os algoritmos perpetuam sistemas de domínio colonial (Noble, 2018). Ao incentivar a leitura crítica dos algoritmos, as comunidades marginalizadas podem questionar e combater as desigualdades, desenvolvendo estratégias de resistência. A literacia decolonial incentiva a valorização e aceitação de outras maneiras de saber, como os conhecimentos indígenas e afrodescendentes (Mbembe, 2019), que são muitas vezes ignorados pelos sistemas de IA. Neste sentido, a conjugação de literacias críticas, algorítmicas e decoloniais pode facilitar a compreensão dos fundamentos do racismo algorítmico e confrontar as estruturas de poder que mantêm estas desigualdades.

O uso da tecnologia de reconhecimento facial tem sido alvo de críticas devido à sua contribuição para o racismo algorítmico e à sua incapacidade de identificar corretamente indivíduos de grupos étnicos minoritários, particularmente mulheres negras (Buolamwini & Gebru, 2018). Esta disparidade é causada principalmente pelo facto de os sistemas de IA serem treinados em conjuntos de dados que não refletem a diversidade da população global, mas sim uma maioria branca e masculina. A ausência de diversidade leva a sistemas eficazes para quem pertence a esses grupos, mas incapazes de reconhecer corretamente aqueles que não se encaixam nesses padrões.

Esta questão não é apenas técnica, mas também uma questão de justiça e de direitos humanos (Eubanks, 2018; Noble 2018). Neste sentido, a tecnologia em vez de ser utilizada como uma ferramenta de segurança e eficiência, torna-se um meio de opressão e exclusão. Efetivamente, a falta de visibilidade das minorias nos sistemas de reconhecimento facial leva à perpetuação de estereótipos e preconceitos por parte dessas tecnologias (Benjamin, 2019). A vigilância digital é uma continuação do olhar colonial, que historicamente tratou corpos negros como sujeitos a serem vigiados e dominados (Browne, 2015). A tecnologia de reconhecimento facial não só erra ao identificar pessoas negras, como também as expõe a métodos de vigilância e controlo que replicam práticas de discriminação racial (Zuboff, 2019).

Para lidar com essas formas de invisibilidade e discriminação, a literacia algorítmica é uma ferramenta essencial (Ananny, 2018). Urge que o utilizador compreenda o funcionamento e o treino dos sistemas de reconhecimento facial. Só assim será possível que as comunidades marginalizadas possam contestar a legitimidade destas tecnologias e requerer supervisão e responsabilidade para garantir justiça e equidade. A capacidade de leitura crítica é fundamental para entender como os algoritmos perpetuam estereótipos e relações de poder. E daqui decorre a necessidade de interligar as literacias críticas com a algorítmica e a decolonial, que pode amplificar a compreensão sobre como as técnicas de vigilância e identificação facial têm raízes em métodos coloniais de controlo e poder (Couldry & Mejias, 2019; Mignolo, 2011). Adotar uma perspetiva decolonial permite analisar de forma crítica o uso da tecnologia na perpetuação do racismo e da opressão, assim como questionar a legitimidade dessas ações.

Criar sistemas de IA mais inclusivos e representativos, com a participação ativa de comunidades marginalizadas, é uma forma concreta de lidar com a invisibilidade algorítmica. Este método participativo garante que as opiniões e vivências destas comunidades sejam consideradas ao criar e aplicar sistemas de IA, o que pode resultar numa utilização mais justa e equitativa dessas tecnologias (Sloane et al., 2022).

Efetivamente,a utilização de sistemas algorítmicos na área da justiça criminal tem mostrado como a IA pode manter desigualdades raciais, levando a práticas discriminatórias e injustas (Angwin et al., 2016). A utilização de algoritmos como o COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), que preveem a reincidência criminal, mostrou que indivíduos negros são frequentemente categorizados como de alto risco mesmo sem histórico criminal, enquanto indivíduos brancos são frequentemente classificados como de baixo risco mesmo com histórico criminal extenso.

Esta forma de discriminação algorítmica não só prejudica as pessoas afetadas, mas também contribui para reforçar e manter estereótipos de criminalidade ligados a minorias raciais. Nos sistemas criminais onde os algoritmos são utilizados, indivíduos negros e outras minorias têm mais hipóteses de serem presos, processados e condenados, o que mantém um sistema de justiça criminal historicamente injusto e desigual (Eubanks, 2018). A compreensão de como estes sistemas operam e perpetuam dinâmicas de poder que reforçam o racismo estrutural é fundamental para a literacia crítica. Desenvolver competências para questionar os fundamentos e técnicas que enviesam os algoritmos de justiça criminal revela como tais sistemas mantêm práticas discriminatórias e contesta a crença na imparcialidade e objetividade da tecnologia (Noble, 2018).

A leitura decolonial ajuda a compreender de que forma o uso de sistemas de IA na área da justiça criminal está ligado a práticas de controlo e punição derivadas do colonialismo e da escravidão. A lógica de vigilância e penalização no sistema de justiça penal da contemporaneidade é uma extensão das táticas coloniais de controle das pessoas racializadas (Foucault, 1977). A partir de uma lente decolonial, é viável questionar a legitimidade desses sistemas e procurar abordagens alternativas para promover a justiça de forma equitativa.

A literacia algorítmica pode permitir que juristas, ativistas e comunidades afetadas entendam como os algoritmos da justiça criminal são desenvolvidos, quais são as suas suposições e como podem ser modificados para assegurar um tratamento mais justo e equitativo. Ao adquirir um conhecimento mais aprofundado das restrições e distorções destes sistemas, é exequível implementar alterações estruturais para garantir o uso ético e responsável da tecnologia. Assim, a colaboração entre profissionais da justiça, profissionais da tecnologia, ativistas e comunidades afetadas é uma forma eficaz de combater o racismo algorítmico na justiça criminal, através da justiça participativa. Ao incorporar as perspetivas e vivências das pessoas que são mais impactadas pela IA, é viável criar estratégias e diretrizes que garantam que a tecnologia não mantenha, mas sim questione, as desigualdades e a opressão.

4. Género e Racismo Algorítmico: Intersecção de Opressões

A interseção entre género e raça é um aspeto fundamental do racismo algorítmico, sobretudo no contexto da IA. As mulheres negras sofrem uma dupla opressão devido à combinação de racismo e sexismo (Crenshaw, 1991). Quando a IA é treinada com conjuntos de dados que contêm preconceitos de género e raça, replica e agrava essas formas de discriminação, o que resulta na exclusão e falta de visibilidade das mulheres negras no ambiente digital. A combinação de género e raça na programação é particularmente prejudicial ao analisarmos como o direcionamento racial digital afeta as mulheres negras, perpetuando estereótipos e restringindo a sua representação. De acordo com Buolamwini e Gebru (2018), os sistemas de reconhecimento facial que foram criados e testados com conjuntos de dados maioritariamente compostos por indivíduos brancos demonstram uma precisão inferior ao identificar pessoas negras, em particular mulheres. Essa inclinação estrutural restringe a capacidade destas tecnologias para perceber a diversidade humana, criando uma visão distorcida da realidade e mantendo a marginalização de mulheres negras em ambientes online.

Uma demonstração dessa intersecção é a programação dos assistentes virtuais femininos, como a Alexa da Amazon e a Siri da Apple, que respondem de forma submissa e com vozes femininas, perpetuando estereótipos de género que sugerem que as mulheres devem ser servis e obedientes (Broussard, 2018). Essa representação não só espelha, mas também fortalece os papéis tradicionais de género, ajudando a tornar normais práticas e atitudes misóginas. Quando essas representações se cruzam com estereótipos raciais, verifica-se uma desumanização que impacta especialmente as mulheres negras. A literacia decolonial é fundamental para abordar a questão da interseccionalidade no contexto do racismo algorítmico. Ao questionar as narrativas hegemónicas que informam a conceção e implementação de tecnologias de IA, a literacia decolonial permite evidenciar como estas tecnologias refletem estruturas de poder patriarcais e racistas. Este processo de desconstrução é essencial para criar uma consciência crítica que desafie as representações estereotipadas de mulheres negras e promova formas de resistência que valorizem as suas experiências e conhecimentos.

Uma outra questão importante é a forma como as tecnologias digitais estão a aumentar a vigilância dos corpos femininos e racializados, rotulando as mulheres negras como de alto risco criminal ou de baixo valor socioeconómico (Eubanks, 2018). Isto demonstra como os algoritmos reproduzem estruturas de opressão historicamente presentes, observando e julgando sistematicamente mulheres negras com critérios rigorosos e discriminatórios. O uso de algoritmos que reproduzem discriminação histórica contra pessoas negras reforça estereótipos e desumaniza, prejudicando a equidade online.

A uniformização da visão das experiências femininas nos algoritmos não tem em conta a diversidade presente dentro do próprio grupo de mulheres. A falta de visibilidade das mulheres negras e outras minorias raciais em representações digitais reforça a conceção de que a experiência da mulher branca é considerada como universal, deixando as mulheres negras e racializadas à margem (Benjamin, 2019). bell hooks (2000) sublinha o apagamento digital da diversidade dentro do próprio género, sublinhando a importância de uma análise interseccional para garantir que o feminismo seja inclusivo e reconheça as múltiplas realidades das mulheres.

A capacidade de analisar e questionar como os sistemas de IA reproduzem estereótipos de género e raciais é incentivada pela literacia crítica. Ao adquirir competências críticas, as mulheres negras podem tornar-se protagonistas na luta contra o racismo algorítmico, detetando e confrontando a forma como a tecnologia as representa e, assim, contribui para sua exclusão e desvalorização.

A compreensão do impacto desproporcional das decisões algorítmicas nas mulheres negras requer igualmente competências de literacia algorítmica. Ao compreender o funcionamento dos algoritmos e o uso de conjuntos de dados no treinamento de sistemas de IA, as mulheres negras e outros grupos marginalizados podem criar estratégias para combater a invisibilidade e a discriminação. Esta competência pode permitir que as mulheres participem na criação de tecnologia, garantindo que as suas experiências e pontos de vista sejam tidos em conta.

A combinação das dimensões crítica, algorítmica e decolonial na abordagem interseccional das literacias é crucial para lidar com os complexos desafios resultantes da interseção entre género e raça na era da IA. Apenas compreendo as dinâmicas de poder por trás da tecnologia podemos desenvolver sistemas de IA inclusivos e equitativos, que valorizem a diversidade e a dignidade de todas as pessoas. A literacia algorítmica é fundamental para as mulheres negras entenderem e enfrentarem esses sistemas de discriminação digital. De acordo com Noble (2018), esta literacia permite que indivíduos identifiquem as formas de exclusão presentes nos sistemas digitais e exijam uma maior responsabilidade das empresas de tecnologia em relação ao impacto dos seus produtos. Essa formação crítica dá às mulheres negras as competências necessárias para se envolverem em discussões públicas sobre o desenvolvimento de tecnologias inclusivas e para impulsionarem transformações na indústria tecnológica, que costuma ignorar as consequências sociais das suas inovações.

Algumas entidades têm solicitado aos governos regulamentações mais rigorosas em relação aos dados usados para treinar algoritmos, destacando a importância de uma ética digital abrangente. Iniciativas como a Algorithmic Justice League, criada por Buolamwini, têm-se dedicado a combater os preconceitos e incentivar uma abordagem ética que inclua minorias na elaboração de IA (Buolamwini, 2020). O objetivo desta colaboração é tornar as tecnologias digitais mais equitativas e inclusivas, assegurando que a criação de sistemas algorítmicos leve em conta as questões éticas e os possíveis impactos negativos em comunidades em situação de vulnerabilidade. Dessa forma, adotar uma abordagem interseccional ao conceber e utilizar tecnologias digitais pode auxiliar na redução desses problemas. Segundo Crenshaw (1991), a análise das interseções entre raça e género é fundamental para o desenvolvimento de políticas e tecnologias mais inclusivas, que considerem os obstáculos enfrentados pelas mulheres negras. Ao incorporar diferentes pontos de vista em todos os estágios do progresso tecnológico, desde a conceção até a execução, é viável criar um ambiente digital que apoie e fomente a igualdade, assegurando que as tecnologias tenham um impacto positivo na sociedade de modo abrangente e justo.

5. Colonialismo Digital e Apropriação de Dados

A ideia de colonialismo digital, apresentada por Couldry e Mejias (2019), centra-se na forma como as grandes empresas de tecnologia do Norte Global obtêm e usam dados para obter lucro, replicando práticas coloniais de exploração e controlo. Este processo de obtenção de informações envolve não só a questão de privacidade, mas também funciona como uma forma de perpetuar as desigualdades de poder entre o Norte e o Sul Global, impedindo que as populações do Sul exerçam o direito à autodeterminação digital.

A recolha e uso de dados por empresas do Norte Global perpetuam a lógica colonial de extração de recursos, transformando as vidas e experiências das populações do Sul em commodities a serem exploradas para o lucro. Este processo contribui para a manutenção de um sistema global de desigualdades, onde as vozes e experiências do Sul são silenciadas e invisibilizadas, enquanto o Norte detém o poder e o controle sobre a produção e circulação de conhecimento e tecnologia (Couldry & Mejias, 2019).

O conhecimento da literacia decolonial é essencial para compreender e lutar contra o colonialismo digital. Ao desafiar a forma como os dados são recolhidos, analisados e utilizados, a literacia decolonial capacita as comunidades do Sul Global a questionar a exploração e a reivindicar a sua autonomia digital. Esta perspetiva crítica pode estimular a elaboração de opções que reconheçam a importância do conhecimento e das vivências locais, incentivando um ambiente online que seja mais equitativo e abrangente.

A forma como as grandes empresas de tecnologia extraem dados assemelha-se à exploração de recursos naturais, tornando as informações pessoais dos usuários o novo “ouro” a ser explorado (Zuboff, 2019). Segundo Zuboff (2019), o “capitalismo de vigilância” consiste em utilizar os dados dos utilizadores como mercadorias para que as empresas possam realizar previsões comportamentais que visam o lucro. Esta prática sujeita as comunidades do Sul Global a uma vigilância e exploração contínuas, em que suas atividades digitais são exploradas para beneficiar as grandes empresas do Norte Global, sem que essas comunidades recebam qualquer vantagem direta ou tenham controlo sobre o uso de seus dados.

As ações de recolha de informações mantêm estruturas de dominação, com empresas do Norte Global a controlar o conhecimento e as histórias, excluindo outras formas de conhecimento local e epistemologias (Escobar, 2020). A falta de reconhecimento dos conhecimentos locais resulta em um “colonialismo epistemológico” digital (Escolbar, 2020), no qual as perspetivas do Sul são ignoradas ou utilizadas de acordo com os objetivos das empresas. Escobar (2020) defende que a dependência de dados recolhidos e interpretados através de perspetivas eurocêntricas distorce as realidades do Sul Global, promovendo uma narrativa singular que desvaloriza as práticas culturais e os conhecimentos alternativos destas comunidades.

A dinâmica de poder e autonomia dos governos do Sul Global também é afetada pelo colonialismo digital, já que frequentemente os países não possuem infraestruturas próprias e dependem de tecnologias e serviços de empresas do Norte Global (Graham & De Sabbata, 2020). Esta dependência tecnológica restringe a autonomia digital, tornando países e comunidades do Sul suscetíveis à influência e ao domínio de empresas transnacionais. Conforme Graham e De Sabbata (2020) sustentam, a ausência de infraestrutura e controlo digital impede as comunidades locais de desenvolverem soluções tecnológicas que representem as suas realidades, o que as torna reféns de interesses externos.

A proposta de uma infraestrutura digital decolonial propõe a criação de plataformas e sistemas que sigam os princípios da autonomia e autodeterminação digital para as populações do Sul Global (Couldry, 2020). Com uma estrutura descolonial, é viável diminuir a necessidade de tecnologias estrangeiras, possibilitando que tais comunidades estabeleçam as suas próprias políticas e diretrizes para recolher, usar e administrar dados. Esta estrutura digital deve ser abrangente e disponível, garantindo uma autonomia que valorize as culturas locais e fomente uma representação mais ampla das vozes do Sul Global nos meios digitais.

É crucial promover uma ética digital mais inclusiva e decolonial para garantir que as comunidades marginalizadas possam ter mais controlo sobre os seus dados e histórias online (Eubanks, 2018). Eubanks (2018) destaca que as empresas precisam adotar práticas de transparência e responsabilidade ao utilizar dados para combater o colonialismo digital. Neste sentido, normas mais rigorosas e abrangentes podem defender as populações do Sul Global de abusos e garantir que as suas narrativas e identidades digitais sejam tratadas de forma ética, com seus dados a ser utilizados de acordo com os seus interesses e consentimento.

A literacia algorítmica é importante para combater o colonialismo digital, pois permite que as pessoas entendam como os seus dados são utilizados para ensinar algoritmos e reforçar o poder. Com este conhecimento, as comunidades do Sul Global podem tomar decisões bem fundamentadas sobre a partilha e uso dos seus dados, exigindo maior transparência e equidade das empresas de tecnologia.

Também as literacias cívicas e críticas são essenciais para compreender o efeito do colonialismo digital na produção e divulgação da informação. Ao examinar as relações de poder por trás das plataformas digitais, os utilizadores podem perceber como é que os algoritmos reforçam as narrativas eurocêntricas e dominam a criação do conhecimento. Finalmente, o cruzamento de literacias decoloniais, algorítmicas, cívicas e críticas pode ajudar a estabelecer um ambiente online que incentive a igualdade social e a inclusão, permitindo que as comunidades do Sul Global tenham mais controlo sobre os seus dados e participem ativamente no desenvolvimento de tecnologias que atendam às suas demandas e vivências. Promover estas competências é crucial para combater o colonialismo digital e criar um ambiente digital mais justo e democrático.

Parte superior do formulário

Parte inferior do formulário

6. Propostas para uma Abordagem Decolonial da Inteligência Artificial

Implementar uma abordagem decolonial nos sistemas de IA é uma proposta importante para combater o racismo algorítmico e o colonialismo digital. Este método requer uma revisão das bases que fundamentam o progresso da tecnologia e a implementação de ações que reconheçam a importância da inclusão e do conhecimento das comunidades historicamente excluídas pelas estruturas de poder presentes no universo tecnológico (Mignolo, 2011). De acordo com Greene et al. (2019), a falta de transparência em diversos sistemas de IA ajuda a manter preconceitos, já que os utilizadores não têm acesso às informações sobre dados e processos que impactam as decisões dos algoritmos. Ao requerer transparência e participação das comunidades marginalizadas nessas etapas, abre-se espaço para questionar os preconceitos e assegurar que os sistemas de IA sejam desenvolvidos com princípios de equidade e justiça.

A literacia decolonial é crucial para desenvolver essa perspetiva, ao questionar a crença de que a expertise em tecnologia pertence apenas ao Norte Global. A literacia decolonial possibilita que comunidades marginalizadas contribuam para o desenvolvimento de sistemas de IA atendendo às suas necessidades e realidades, ao valorizar diferentes formas de conhecimento e experiências. O reconhecimento de diferentes conhecimentos é crucial para desenvolver sistemas de IA mais equitativos e abrangentes, que não perpetuem os preconceitos e desigualdades das estruturas de poder hegemónicos e dominantes.

Uma outra questão crucial para uma abordagem decolonial consiste em integrar diversas epistemologias no processo de desenvolvimento da IA. Escobar (2020) argumenta que o uso dos conhecimentos indígenas e afrodescendentes, juntamente com o respeito pelas visões das comunidades locais, tem o potencial de aprimorar os sistemas de IA e promover uma tecnologia mais significativa e ética em diversos cenários sociais e culturais. Esta diversidade de conhecimento possibilita que a IA tenha uma visão mais abrangente e aberta da realidade, impedindo que perspetivas eurocêntricas sejam impostas e garantindo que os sistemas valorizem a variedade cultural.

A colaboração na governança de dados também é crucial para impulsionar a IA decolonial. Sloane et al. (2022) sugerem que as comunidades afetadas sejam envolvidas nas decisões relacionadas ao uso e armazenamento dos seus dados, estabelecendo sistemas de governança que coloquem em primeiro lugar os interesses das próprias comunidades. Esta forma de governança participativa evita o uso indevido dos dados e promove uma IA que considere as comunidades locais, respeitando a sua autonomia e autodeterminação digital.

As técnicas de design participativo são abordagens que podem ser adotadas para envolver efetivamente comunidades marginalizadas no processo de criação de IA. De acordo com Costanza-Chock (2020), a participação no design permite que as comunidades tenham influência direta na criação de tecnologia, assegurando que as suas preocupações, realidades e valores sejam considerados no produto final. Este procedimento não fortalece apenas a importância social dos sistemas de IA, mas também enfrenta a exclusão histórica, possibilitando que os grupos marginalizados se sintam representados e apreciados na tecnologia. É fundamental que as comunidades afetadas participem ativamente para assegurar que a IA seja usada como meio de emancipação e justiça, e não como instrumento de opressão e exclusão (Costanza-Chock, 2020).

É fundamental que as políticas públicas incentivem projetos de pesquisa e desenvolvimento de IA que adotem uma perspetiva decolonial, fomentando a diversidade e inclusão na indústria de tecnologia. Benjamin (2019) sustenta que a regulação governamental desempenha um papel crucial na promoção de ambientes que estimulem a responsabilidade social das empresas de tecnologia. Criando políticas que incentivem a inclusão e a igualdade, os governos podem ajudar a desenvolver sistemas de IA que combatam, em vez de perpetuar, as desigualdades, garantindo que a tecnologia esteja em conformidade com os valores de justiça social e diversidade cultural. A literacia algorítmica tem potencial para capacitar comunidades a entender e impactar o funcionamento dos sistemas de IA que têm impacto nas suas vidas, garantindo que as pessoas podem se envolver de forma ativa na criação e aplicação da IA, assegurando que as suas opiniões e vivências sejam levadas em consideração. A importância das literacias cívicas e críticas está em fornecer as ferramentas para questionar as estruturas de poder na construção da tecnologia, promovendo uma abordagem decolonial da IA. Estas competências possibilitam entender como os interesses económicos e políticos moldam as tecnologias de IA e como estas podem ser utilizadas para fortalecer ou questionar relações de poder já estabelecidas. Com a promoção do pensamento crítico, grupos invisibilizados e marginalizados podem detetar como a IA é utilizada para perpetuar desigualdades e opressões, agindo para favorecer tecnologias mais inclusivas, equitativas e justas.

É igualmente indispensável que as escolas, empresas de tecnologia e entidades reguladoras incentivem a inclusão e a diversidade nas equipas de IA, assim como nos procedimentos de design e implementação da tecnologia. Ao assegurar a participação de profissionais de diversas raças, géneros, classes sociais e origens geográficas no desenvolvimento de sistemas de IA, é possível criar tecnologias mais justas e inclusivas. A diversidade não tem apenas como objetivo representar diferentes grupos, mas também garantir que a IA seja reflexo da complexidade do mundo real.

7. Conclusão

A avaliação dos impactos do racismo algorítmico e do colonialismo digital revela uma situação intricada em que as tecnologias de IA atuam como reflexos e intensificadores de preconceitos arraigados na sociedade. Estes sistemas não são neutros, mas sim influenciados por redes de poder que espelham desigualdades históricas e geopolíticas entre o Norte e o Sul Global (Benjamin, 2019; Noble, 2018). A manutenção de estereótipos e a marginalização de minorias raciais e de género estão presentes atualmente como formas de injustiça, sendo amplificadas por algoritmos e estruturas digitais na era da tecnologia. Buolamwini e Gebru (2018) sublinham que a ineficácia dos sistemas de reconhecimento facial em distinguir indivíduos racializados evidencia as deficiências fundamentais de uma IA baseada em conjuntos de dados restritos e enviesados, que consistentemente deixam de incluir a diversidade.

Utilizar esses sistemas em áreas críticas, como a área da justiça criminal, pode resultar em impactos devastadores, perpetuando desigualdades ao reforçar preconceitos e decisões baseadas em eventos passados (Angwin et al., 2016). A discriminação algorítmica na justiça criminal não é apenas um incidente isolado, mas evidencia um problema mais amplo: a predominância tecnológica do Norte Global que impõe uma perspetiva limitada das realidades culturais e sociais ao ditar as diretrizes de progresso tecnológico. Portanto, é essencial entender que os sistemas de IA não só espelham, mas também influenciam a sociedade, gerando realidades opressivas e fortalecendo estruturas de poder.

A oposição a essa tendência envolve incentivar a aquisição de competências críticas, algorítmicas e decoloniais, que permitem às pessoas questionar e alterar as tecnologias que empregam (Couldry & Mejias, 2019). Ao estimular uma educação decolonial, destaca-se a relevância de contestar as epistemologias predominantes e valorizar os saberes locais e alternativas históricas de conhecimento, combatendo o colonialismo digital e promovendo uma produção de conhecimento mais diversificada e abrangente (Mignolo, 2011). Esta mudança na forma de conhecimento não se limita a um exercício mental, mas é uma intervenção política para corrigir as disparidades globais de poder e promover a equidade social.

Para promover uma ética inclusiva na IA, é essencial adotar metodologias participativas e colaborativas, permitindo a participação ativa de comunidades historicamente excluídas na criação de sistemas que atendam às suas necessidades (Costanza-Chock, 2020). A existência de várias vozes no avanço tecnológico desafia as normas eurocêntricas e promove um ambiente inovador inclusivo e representativo. Esta mudança de paradigma necessita de um compromisso ético e de uma regulamentação que obrigue as empresas a serem responsáveis pelos impactos sociais de suas tecnologias, incentivando a transparência e a responsabilidade.

O desenvolvimento de uma IA justa e respeitosa com a dignidade e as experiências de todas as pessoas requer um compromisso constante com a igualdade social e o respeito à diversidade cultural. A fusão das literacias decoloniais, críticas e algorítmicas na evolução tecnológica é essencial para desmantelar as estruturas opressivas e promover um ambiente digital inclusivo, onde todas as opiniões sejam valorizadas e incluídas. Ao identificar e confrontar as formas de exclusão presentes nos sistemas de IA, abrimos caminho para um futuro digital inclusivo que valorize tanto a criatividade quanto a igualdade e o respeito à dignidade humana.

Autoria e Contribuições

Disakala Ventura: concetualização, investigação, redação do rascunho original, redação – revisão e edição

Inês Amaral: concetualização, supervisão, redação do rascunho original, redação – revisão e edição

Notas Biográficas

Disakala Ventura é o Coordenador Geral da Rede de Organizações da Sociedade Civil do Cazenga (ROSCCA), em Angola. Ocupa o cargo de Coordenador para Assuntos Académicos e Relações Internacionais na organização não governamental Plataforma Cazenga em Acção (PLACA), da qual é membro cofundador. Entre 2016 e 2023, foi docente de Psicologia e Formação de Atitudes de Atitudes Integradoras. É psicólogo de formação, ativista dos direitos humanos e pan-africanista. Os seus interesses de investigação relacionam-se com desinformação e audiência, ativismo e pan-africanismo, assim como literacia mediática, violências e feminismos, abordando estes temas através da intersecção das Ciências da Comunicação com a Psicologia.

Inês Amaral é Professora Associada da Secção de Comunicação do Departamento de Filosofia, Comunicação e Informação da Faculdade de Letras da Universidade de Coimbra. Doutorada em Ciências da Comunicação (especialidade em Media Interativos) pela Universidade do Minho, é investigadora integrada do Centro de Estudos Sociais da Universidade de Coimbra e investigadora associada ao Centro de Estudos de Comunicação e Sociedade. Tem desenvolvido investigação sobre sociabilidades nas redes sociais digitais; participação e media sociais; masculinidades e media; estudos feministas dos media; literacia mediática e digital; tecnologias e envelhecimento ativo; audiências; desinformação. É investigadora do Observatório de Masculinidades e do ObCiber.

Referências

Amaral, I., & Santos, S. J. (2019). Algoritmos e redes sociais: A propagação de fake news na era da pós-verdade. In J. Figueira & S. C. Santos (Eds.), As fake news e a nova ordem (des)informativa na era da pós-verdade: Manipulação, polarização, filter bubbles (pp. 63-85). Imprensa da Universidade de Coimbra.

Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016, 23 de março). Machine bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Ananny, M. (2018). Networked press freedom: Creating infrastructures for a public right to hear. MIT Press.

Bakir, V., & McStay, A. (2018). Fake news and the economy of emotions. Digital Journalism, 6(2), 154–175. https://doi.org/10.1080/21670811.2017.1345645

Benjamin, R. (2019). Race after technology: Abolitionist tools for the New Jim Code. Polity Press.

Broussard, M. (2018). Artificial unintelligence: How computers misunderstand the world. MIT Press.

Brites, M. J., Amaral, I., & Catarino, F. (2018). A era das “fake news”: O digital storytelling como promotor do pensamento crítico. Journal of Digital Media & Interaction, 1(1), 85-98. https://proa.ua.pt/index.php/jdmi/article/view/928

Browne, S. (2015). Dark matters: On the surveillance of blackness. Duke University Press.

Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, 81, 1–15. https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf

Chun, W. H. K. (2021). Discriminating data: Correlation, neighborhoods, and the new politics of recognition. MIT Press.

Collins, P. H. (2000). Black feminist thought: Knowledge, consciousness, and the politics of empowerment. Routledge.

Costanza-Chock, S. (2020). Design justice: Community-led practices to build the worlds we need. MIT Press.

Couldry, N. (2020). Recovering critique in an age of datafication. New Media & Society, 22(7), 1135-1151.

Couldry, N., & Mejias, U. A. (2019). The costs of connection: How data is colonizing human life and appropriating it for capitalism. Stanford University Press.

Crenshaw, K. (1991). Mapping the margins: Intersectionality, identity politics, and violence against women of color. Stanford Law Review, 43(6), 1241–1299. https://doi.org/10.2307/1229039

Diakopoulos, N. (2015). Algorithmic accountability: Journalistic investigation of computational power structures. Digital Journalism, 3(3), 398-415. https://doi.org/10.1080/21670811.2014.976411

Escobar, A. (2020). Pluriversal politics: The real and the possible. Duke University Press.

Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin's Press.

Foucault, M. (1977). Discipline and punish: The birth of the prison. Allen Lane.

Gillespie, T. (2018). Custodians of the internet: Platforms, content moderation, and the hidden decisions that shape social media. Yale University Press.

Graham, M., & De Sabbata, S. (2020). The geographic contours of openness. In M. L. Smith & R. K. Seward (Eds.), Making open development inclusive: Lessons from IDRC research (pp. 119–142). The MIT Press.

Greene, D., Hoffmann, A. L. & Stark, L. (2019). Better, nicer, clearer, fairer: A critical assessment of the movement for ethical artificial intelligence and machine learning. In Proc. 52nd Hawaii international conference on system sciences (pp. 2122–2131).

hooks, b. (2000). Feminist theory: From margin to center. Pluto Press.

Kellner, D., & Share, J. (2007). Critical media literacy is not an option. Learning Inquiry, 1, 59-69. https://doi.org/10.1007/s11519-007-0004-2

Mbembe, A. (2019). Necropolitics. Duke University Press.

Mignolo, W. (2011). The darker side of Western modernity: Global futures, decolonial options. Duke University Press.

Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press.

O'Neil, C. (2017). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishing Group.

Pariser, E. (2011). The filter bubble: How the new personalized web is changing what we read and how we think. Penguin Press.

Quijano, A. (2000). Coloniality of power, Eurocentrism, and Latin America. Nepantla: Views from South, 1(3), 533-580. https://doi.org/10.1177/0268580900015002005

Selwyn, N. (2009). The digital native – Myth and reality. Aslib Proceedings, 61(4), 364-379. https://doi.org/10.1108/00012530910973776

Sloane, M., Moss, E., Awomolo, O., & Forlano, L. (2022). Participation is not a design fix for machine learning. In Proceedings of the 2nd ACM conference on equity and access in algorithms, mechanisms, and optimization (pp. 1-6). Association for Computing Machinery.

Tufekci, Z. (2017). Twitter and tear gas: The power and fragility of networked protest. Yale University Press.

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.



Buscar:
Ir a la Página
IR
Modelo de publicação sem fins lucrativos para preservar a natureza acadêmica e aberta da comunicação científica
Visor de artigos científicos gerado a partir de XML JATS4R