Погана ШІ, коли ШІ переходить межі
Awful AI — це відкрите сховище, яке збирає реальні приклади технологій штучного інтелекту, які роблять найгірше. Такі речі, як надмірний нагляд, несправедливі рішення або системи, які ставляться до деяких людей гірше, ніж до інших.
Ідея проста: показати, що йде не так, щоб запобігти продовженню таких ситуацій.
Проблема: машини приймають рішення, про які люди не знають.
Все частіше школи, підприємства, лікарні, поліція, банки і навіть соціальні мережі використовують штучний інтелект у своїх рішеннях.
Проблема? У більшості випадків люди не знають, що це відбувається.
Наприклад, штучний інтелект для розпізнавання обличчя або системи прогнозування кримінального правосуддя можуть мати расові або гендерні упередження. Коли код і дані є закритими, немає можливості їх перевірити, оскаржити або виправити. Це еквівалентно новій формі«урядування за допомогою алгоритмів»— автоматичним рішенням, що регулюють життя.
Чому це відбувається?
Багато з цих технологій створюються компаніями, які не показують код, не показують дані і не пояснюють, як приймаються рішення.
Інші купуються державними або приватними установами як «чорні скриньки»: вони працюють... але ніхто не може побачити, що там всередині.
І які наслідки це має?
Проблеми не є теоретичними, вони виникають у повсякденному житті:
Несправедливість: системи, які гірше ставляться до певних людей (за статтю, місцем проживання, кольором шкіри, акцентом).
Втрата можливостей: алгоритми, які відмовляють у кредиті, страхуванні або працевлаштуванні.
Спостереження: камери, які стежать за людьми без причини.
Стрес і плутанина: відчуття, що «щось» вирішує за нас, але ми не знаємо, як саме. Це як жити в місці, де є правила, але ніхто не каже, які саме.
Групи, які вже є маргіналізованими, відчувають найгірші наслідки: алгоритмічні упередження перетворюють нерівності на автоматичні рішення.
Непрозорість не є нейтральною; вона продовжує існуючі несправедливості.
Що робить Awful AI?
Awful AI не є «чарівним інструментом», але діє як інфраструктура видимості та дебатів — відкрите сховище, вільне від комерційних упереджень, яке документує та викриває зловживання ШІ. Це вже є важливим саме по собі: робить видимим те, що зазвичай приховується. Прозорість є першим кроком до відповідальності.
Те, що він є відкритим, означає, що будь-яка особа — дослідник, журналіст, активіст — може переглянути список, вивчити випадки, повторити скарги, провести дослідження, чинити тиск на установи. Це надає повноваження громадам поза межами корпоративно-технологічного ядра.
Крім того, Awful AI надихає те, що автори називають «contestational tech» — тобто технології оскарження, опору: оскільки проблема існує, необхідно терміново думати про протидію. Хоча репозиторій сам по собі не надає готової до використання альтернативної системи, він функціонує як база критичних знань, відправна точка для тих, хто хоче уявити справедливі, регульовані, підконтрольні, орієнтовані на загальне благо штучні інтелекти.
Ця функція є надзвичайно важливою: денатуралізувати нібито неминуче використання ШІ, підтвердити, що технології є соціальним і політичним вибором і залежать від етичних рішень.
Як це допомагає тим, хто створює громадянську технологію в Португалії
Хоча Awful AI не є португальською організацією — і задокументовані випадки часто походять зі Сполучених Штатів, Європи або північної частини світу — її роль як критичної інфраструктури є цінною для будь-якого контексту, де зростає використання ШІ та автоматизації.
У Португалії, як і в усій Європі, державні та приватні ініціативи починають впроваджувати автоматизовані системи: розпізнавання облич, адміністративні рішення, що підлягають алгоритмам, аналіз персональних даних у великому масштабі. Якщо не буде моніторингу, дискусій та альтернатив, ми повторимо ті самі зловживання — сегрегацію, непрозорість, алгоритмічну дискримінацію та масове спостереження.
Для тих, хто відстоює вільне програмне забезпечення, відкриті дані, відкрите управління, Awful AI є цінним інструментом для підвищення обізнаності, документації та мобілізації.
Технологія, якій ми можемо довіряти, тому що ми бачимо, як вона працює.
Репозиторій допомагає нам зрозуміти, що є кращі шляхи:
Вільне програмне забезпечення: ми можемо переглядати та вносити зміни до коду
відкриті та добре задокументовані дані: ми знаємо, звідки походять рішення
спільнотні інструменти: створені для допомоги, а не для нагляду
низькотехнологічна або гібридна технологія: проста, але прозора
процеси, які допускають перегляд і виправлення.
Непрозорість не є нейтральною; вона продовжує несправедливість, яка вже існувала.
Посилання
daviddao/awful-ai: Awful AI - 2021 Edition (DOI 10.5281/zenodo.5855971)





0 commentaire
Connectez-vous ou créez un compte pour ajouter votre commentaire.