Awful AI: Quando a IA passa dos limites
Awful AI é um site aberto que junta exemplos reais de tecnologias de inteligência artificial que fazem o pior.
Coisas como vigilância exagerada, decisões injustas ou sistemas que tratam algumas pessoas pior do que outras.
A ideia é simples: mostrar o que está a correr mal para evitar que continue a acontecer.
O problema: máquinas a decidir sem que as pessoas saibam
Cada vez mais, escolas, empresas, hospitais, polícias, bancos e até redes sociais usam inteligência artificial nas suas decisões.
O problema? Na maior parte das vezes, as pessoas não sabem que isso está a acontecer.
Um sistema na alfândega que analisa rostos e movimentos para “prever” quem pode estar a transportar algo ilegal.
Um algoritmo que avalia currículos e rejeita candidatos que nem sabem porquê.
Uma rede social que esconde certos conteúdos sem explicar o critério.
Quando ninguém sabe que estas decisões são automáticas, fica impossível perceber se são justas ou não.
Porque é que isto acontece?
Muitas destas tecnologias são criadas por empresas que não mostram o código, não mostram os dados e não explicam como as decisões são feitas.
Outras são compradas por instituições públicas ou privadas como “caixas-pretas”: funcionam… mas ninguém pode ver o que está lá dentro.
E quais são os impactos?
Os problemas não são teóricos, acontecem no dia a dia:
Injustiça: sistemas que tratam pior certas pessoas (por género, bairro, cor, sotaque).
Perda de oportunidades: algoritmos que recusam crédito, seguro ou emprego.
Vigilância: câmaras que seguem pessoas sem motivo.
Stress e confusão: sentir que “algo” decide por nós, mas sem sabermos como. É como viver num sítio onde há regras, mas ninguém diz quais são.
Grupos já marginalizados sentem os piores efeitos: enviesamentos algorítmicos transformam desigualdades em decisões automáticas.
A opacidade não é neutra; prolonga injustiças que já existiam.
O que o Awful AI faz?
Awful AI não cria soluções mágicas. Faz algo básico, mas muito útil: junta tudo num só lugar para que qualquer pessoa possa ver exemplos reais de problemas com IA.
Serve para:
alertar devs e organizações,
inspirar jornalistas e investigadores,
ajudar coletivos de tecnologia cívica a evitarem maus fornecedores,
permitir que comunidades discutam tecnologia com mais informação.
-
convidar contribuidores para aumentar a vigilanças sobre as IA.
Como isto ajuda quem cria tecnologia cívica em Portugal
Em Portugal, escolas, autarquias, empresas e serviços públicos começam a usar IA cada vez mais. Muitas vezes compram soluções “prontas” vindas de fora.
Se ninguém faz perguntas antes, podemos importar:
vigilância exagerada,
sistemas injustos,
decisões automáticas sem explicação,
ferramentas fechadas que ninguém consegue auditar.
Awful AI funciona como uma lista de lições aprendidas: “Antes de instalar isto aqui, vê o que já correu mal lá fora.”.
Uma tecnologia que podemos confiar porque podemos ver como funciona
O repositório ajuda-nos a perceber que há caminhos melhores:
software livre: podemos ver o código;
dados abertos e bem documentados: dá para perceber de onde vêm as decisões;
ferramentas comunitárias: feitas para ajudar, não para vigiar;
tecnologia low-tech ou híbrida: simples, mas transparente;
processos que aceitam revisão e correção.
Awful AI, uma ferramenta de vigilância ética
Awful AI é uma ferramenta de vigilância ética: não vigia pessoas, vigia tecnologias que podem prejudicar pessoas.
Num mundo onde a IA aparece em tudo, de câmaras na rua a sistemas de saúde, precisamos de recursos que expliquem o que está a acontecer de forma clara e acessível.
Awful AI cumpre esse papel: dá visibilidade, organiza informação e ajuda comunidades a tomar melhores decisões.
Sem transparência e sem debate, a tecnologia fica nas mãos de poucos.
Links





0 comentários
Log in or create an account to add your comment.