Passer au contenu principal

Paramètres des cookies

Nous utilisons des cookies pour assurer les fonctionnalités de base du site Web et pour améliorer votre expérience en ligne. Vous pouvez configurer et accepter l'utilisation des cookies et modifier vos options de consentement à tout moment.

Essentiels

Préférences

Analyses et statistiques

Afficher le texte original Attention : Le contenu peut être automatiquement traduit et ne pas être exact à 100%.

भयानक एआई, जब एआई हद पार कर जाता है

en  fr  hi  pt Postagem instagram ru  machine_translations {"en"=>"Instagram post", "fr"=>"Publication Instagram", "hi"=>"Instagram पोस्ट", "ru"=>"Пост в Instagram", "uk"=>"Пост в Instagram"}

Avatar: Article officiel Article officiel

Awful AI एक खुली रिपॉजिटरी है जो उन कृत्रिम बुद्धिमत्ता तकनीकों के वास्तविक उदाहरणों को एकत्रित करती है जो सबसे बुरा प्रदर्शन करती हैं। अत्यधिक निगरानी, अन्यायपूर्ण निर्णय, या ऐसी प्रणालियाँ जो कुछ लोगों के साथ दूसरों की तुलना में बुरा व्यवहार करती हैं।
विचार सरल है: जो गलत हो रहा है उसे दिखाना ताकि यह जारी न रह सके।

समस्या: लोगों को बिना बताए मशीनों द्वारा निर्णय लेना

बढ़ती हुई प्रवृत्ति में, स्कूल, व्यवसाय, अस्पताल, पुलिस बल, बैंक और यहां तक कि सोशल नेटवर्क भी अपने निर्णय लेने में कृत्रिम बुद्धिमत्ता का उपयोग कर रहे हैं।
समस्या? अधिकांश समय, लोग इस बात से अनजान रहते हैं कि यह हो रहा है।

उदाहरण के लिए, चेहरे की पहचान करने वाले एआई या पूर्वानुमानित आपराधिक न्याय प्रणालियों में नस्लीय या लिंग-आधारित पूर्वाग्रह हो सकता है। जब कोड और डेटा बंद होते हैं, तो उनका ऑडिट, चुनौती या मरम्मत करना असंभव होता है। यह'अल्गोरिद्मिक शासन'का एक नया रूप है — स्वचालित निर्णय जो जीवन को नियंत्रित करते हैं।

ऐसा क्यों होता है?

इनमें से कई तकनीकें ऐसी कंपनियों द्वारा बनाई जाती हैं जो कोड नहीं दिखातीं, डेटा नहीं दिखातीं, और यह नहीं बतातीं कि निर्णय कैसे लिए जाते हैं
अन्य को सार्वजनिक या निजी संस्थानों द्वारा "ब्लैक बॉक्स" के रूप में खरीदा जाता है: वे काम करते हैं... लेकिन कोई भी यह नहीं देख सकता कि उनके अंदर क्या है।

और प्रभाव क्या हैं?

समस्याएँ सैद्धांतिक नहीं हैं; वे प्रतिदिन होती हैं:

  • अन्याय: ऐसी प्रणालियाँ जो कुछ लोगों के साथ (लिंग, पड़ोस, रंग, उच्चारण के आधार पर) बुरा व्यवहार करती हैं।

  • अवसरों का नुकसान: एल्गोरिदम जो क्रेडिट, बीमा या रोजगार से वंचित करते हैं।

  • निगरानी: कैमरे जो बिना किसी कारण के लोगों का पीछा करते हैं।

  • तनाव और भ्रम: यह महसूस करना कि "कुछ" हमारे लिए निर्णय लेता है, लेकिन यह जाने बिना कि कैसे। यह ऐसे स्थान में रहने जैसा है जहाँ नियम हैं, लेकिन कोई आपको नहीं बताता कि वे क्या हैं।

पहले से ही हाशिए पर मौजूद समूह सबसे बुरा प्रभाव महसूस करते हैं: एल्गोरिद्मिक पक्षपात असमानताओं को स्वचालित निर्णयों में बदल देते हैं।
अपारदर्शिता तटस्थ नहीं है; यह पहले से मौजूद अन्यायों को और बढ़ाती है।

Awful AI क्या करता है?

Awful AI कोई "जादुई उपकरण" नहीं है, बल्कि दृश्यता और बहस के लिए एक बुनियादी ढांचा है — एक खुली भंडार, जो वाणिज्यिक पक्षपात से मुक्त है, और AI के दुरुपयोग का दस्तावेजीकरण और रिपोर्टिंग करता है। यह अपने आप में महत्वपूर्ण है: यह उस चीज़ को दृश्यमान बनाता है जिसे आमतौर पर छिपाया जाता है। पारदर्शिता जवाबदेही की दिशा में पहला कदम है।

यह खुला होने का मतलब है कि कोई भी — शोधकर्ता, पत्रकार, कार्यकर्ता — सूची देख सकता है, मामलों की जांच कर सकता है, शिकायतों को दोहरा सकता है, अध्ययन कर सकता है, और संस्थानों पर दबाव डाल सकता है। यह कॉर्पोरेट-तकनीकी केंद्र के बाहर के समुदायों को सशक्त बनाता है।

इसके अतिरिक्त, Awful AI लेखकों द्वारा "contestational tech" — यानी विवाद और प्रतिरोध की तकनीकें — को प्रेरित करता है: चूंकि समस्या मौजूद है, इसलिए प्रतिबलों के बारे में सोचना अतिआवश्यक है। हालाँकि रिपॉजिटरी स्वयं एक तैयार-प्रणाली विकल्प प्रदान नहीं करती है, यह एक महत्वपूर्ण ज्ञान आधार के रूप में कार्य करती है, उन लोगों के लिए एक शुरुआती बिंदु है जो सामान्य भलाई के अनुरूप निष्पक्ष, विनियमित, ऑडिट करने योग्य एआई की कल्पना करना चाहते हैं।

यह कार्य आवश्यक है: एआई की कथित अनिवार्यता को अप्राकृतिक बनाने के लिए, यह पुनः पुष्टि करने के लिए कि प्रौद्योगिकियाँ सामाजिक और राजनीतिक विकल्प हैं और नैतिक निर्णयों पर निर्भर करती हैं।

यह पुर्तगाल में नागरिक प्रौद्योगिकी बनाने वालों की कैसे मदद करता है

हालाँकि Awful AI पुर्तगाली नहीं है — और दस्तावेज़ित मामले अक्सर संयुक्त राज्य अमेरिका, यूरोप या वैश्विक उत्तर से आते हैं — किसी भी संदर्भ में जहाँ AI और स्वचालन बढ़ रहे हैं, एक महत्वपूर्ण अवसंरचना के रूप में इसकी भूमिका मूल्यवान है।

पुर्तगाल में, जैसे पूरे यूरोप में, सार्वजनिक और निजी पहलें स्वचालित प्रणालियों को अपनाने लगी हैं: चेहरे की पहचान, एल्गोरिदम के अधीन प्रशासनिक निर्णय, बड़े पैमाने पर व्यक्तिगत डेटा का विश्लेषण। निगरानी, बहस और विकल्पों के बिना, हम उन्हीं दुरुपयोगों को दोहराएंगे — अलगाव, अस्पष्टता, एल्गोरिदमिक भेदभाव और व्यापक निगरानी।

जो लोग मुक्त सॉफ़्टवेयर, खुले डेटा और खुली शासन का समर्थन करते हैं, उनके लिए Awful AI जागरूकता बढ़ाने, दस्तावेज़ीकरण और संगठित कार्रवाई के लिए एक मूल्यवान उपकरण के रूप में कार्य करता है।

एक ऐसी तकनीक जिस पर हम भरोसा कर सकते हैं क्योंकि हम देख सकते हैं कि यह कैसे काम करती है।

यह रिपॉजिटरी हमें यह समझने में मदद करती है कि बेहतर तरीके मौजूद हैं:

  • मुक्त सॉफ़्टवेयर: हम कोड को देख सकते हैं और उसमें योगदान दे सकते हैं

  • खुला और अच्छी तरह से प्रलेखित डेटा: हम जानते हैं कि निर्णय कहाँ से आते हैं

  • सामुदायिक उपकरण: मदद के लिए बनाए गए, निगरानी के लिए नहीं

  • लो-टेक या हाइब्रिड तकनीक: सरल, लेकिन पारदर्शी

  • ऐसी प्रक्रियाएँ जो समीक्षा और सुधार को स्वीकार करती हैं।

अपारदर्शिता तटस्थ नहीं है; यह पहले से मौजूद अन्यायों को बनाए रखती है।

लिंक

daviddao/awful-ai: Awful AI - 2021 संस्करण (DOI 10.5281/zenodo.5855971)

IA são injustas e ampliam desigualidades
2
3
4
6

Signaler un contenu inapproprié

Ce contenu est-il inapproprié ?

Motif:
Chargement des commentaires ...

Connectez-vous ou créez un compte pour ajouter votre commentaire.

Valider

Veuillez vous connecter

Le mot de passe est trop court.

Partager