Awful AI, quando a IA passa dos limites
Awful AI é um repositório aberto que junta exemplos reais de tecnologias de inteligência artificial que fazem o pior. Coisas como vigilância exagerada, decisões injustas ou sistemas que tratam algumas pessoas pior do que outras.
A ideia é simples: mostrar o que está a correr mal para evitar que continue a acontecer.
O problema: máquinas a decidir sem que as pessoas saibam
Cada vez mais, escolas, empresas, hospitais, polícias, bancos e até redes sociais usam inteligência artificial nas suas decisões.
O problema? Na maior parte das vezes, as pessoas não sabem que isso está a acontecer.
Por exemplo, IAs de reconhecimento facial ou sistemas preditivos de justiça penal podem ter viés racial ou de género. Quando o código e os dados são fechados, não há forma de auditar, contestar ou reparar. Isso equivale a uma nova forma de “governo por algoritmo” — decisões automáticas que regulam a vida.
Porque é que isto acontece?
Muitas destas tecnologias são criadas por empresas que não mostram o código, não mostram os dados e não explicam como as decisões são feitas.
Outras são compradas por instituições públicas ou privadas como “caixas-pretas”: funcionam… mas ninguém pode ver o que está lá dentro.
E quais são os impactos?
Os problemas não são teóricos, acontecem no dia a dia:
Injustiça: sistemas que tratam pior certas pessoas (por género, bairro, cor, sotaque).
Perda de oportunidades: algoritmos que recusam crédito, seguro ou emprego.
Vigilância: câmaras que seguem pessoas sem motivo.
Stress e confusão: sentir que “algo” decide por nós, mas sem sabermos como. É como viver num sítio onde há regras, mas ninguém diz quais são.
Grupos já marginalizados sentem os piores efeitos: enviesamentos algorítmicos transformam desigualdades em decisões automáticas.
A opacidade não é neutra; prolonga injustiças que já existiam.
O que o Awful AI faz?
Awful AI não é uma “ferramenta mágica”, mas atua como infraestrutura de visibilidade e debate — um repositório aberto, livre de preconceitos comerciais, que documenta e denuncia abusos de IA. Isso já é importante por si só: torna visíveis o que se costuma camuflar. A transparência é o primeiro passo para a responsabilização.
O fato de ser aberto significa que qualquer pessoa — pesquisador, jornalista, ativista — pode consultar a lista, examinar os casos, replicar denúncias, construir estudos, pressionar instituições. Isso empodera comunidades fora do núcleo corporativo-tecnológico.
Além disso, Awful AI inspira o que os autores chamam de “contestational tech” — ou seja, tecnologias de contestação, de resistência: já que existe o problema, é urgente pensar em contraforças. Embora o repositório por si não forneça um sistema alternativo pronto ao uso, ele funciona como base de conhecimento crítica, ponto de partida para quem quer imaginar IAs justas, reguladas, auditáveis, alinhadas ao bem comum.
Essa função é essencial: desnaturalizar o suposto inevitável da IA, reafirmar que tecnologias são escolhas sociais, políticas e dependem de decisões éticas.
Como isto ajuda quem cria tecnologia cívica em Portugal
Embora Awful AI não seja portuguesa — e os casos documentados venham muitas vezes de Estados Unidos, Europa ou global norte — o seu papel de infraestrutura crítica é valioso para qualquer contexto onde IA e automação aumentam.
Em Portugal, como em toda Europa, iniciativas públicas e privadas começam a adotar sistemas automatizados: reconhecimento facial, decisões administrativas sujeitas a algoritmos, análise de dados pessoais em larga escala. Se não houver monitorização, debate e alternativas, vamos repetir os mesmos abusos — segregação, opacidade, discriminação algorítmica e vigilância de massa.
Para quem defende software livre, dados abertos, governança aberta, Awful AI funciona como uma ferramenta valiosa de sensibilização, documentação e mobilização.
Uma tecnologia que podemos confiar porque podemos ver como funciona
O repositório ajuda-nos a perceber que há caminhos melhores:
software livre: podemos ver e contribuír ao código
dados abertos e bem documentados: sabemos de onde vêm as decisões
ferramentas comunitárias: feitas para ajudar, não para vigiar
tecnologia low-tech ou híbrida: simples, mas transparente
processos que aceitam revisão e correção.
A opacidade não é neutra; prolonga injustiças que já existiam
Links
daviddao/awful-ai: Awful AI - 2021 Edition (DOI 10.5281/zenodo.5855971)





0 comentários
Connectez-vous ou créez un compte pour ajouter votre commentaire.