भयानक एआई, जब एआई हद पार कर जाता है
Awful AI एक खुली रिपॉजिटरी है जो उन कृत्रिम बुद्धिमत्ता तकनीकों के वास्तविक उदाहरणों को एकत्रित करती है जो सबसे बुरा प्रदर्शन करती हैं। अत्यधिक निगरानी, अन्यायपूर्ण निर्णय, या ऐसी प्रणालियाँ जो कुछ लोगों के साथ दूसरों की तुलना में बुरा व्यवहार करती हैं।
विचार सरल है: जो गलत हो रहा है उसे दिखाना ताकि यह जारी न रह सके।
समस्या: लोगों को बिना बताए मशीनों द्वारा निर्णय लेना
बढ़ती हुई प्रवृत्ति में, स्कूल, व्यवसाय, अस्पताल, पुलिस बल, बैंक और यहां तक कि सोशल नेटवर्क भी अपने निर्णय लेने में कृत्रिम बुद्धिमत्ता का उपयोग कर रहे हैं।
समस्या? अधिकांश समय, लोग इस बात से अनजान रहते हैं कि यह हो रहा है।
उदाहरण के लिए, चेहरे की पहचान करने वाले एआई या पूर्वानुमानित आपराधिक न्याय प्रणालियों में नस्लीय या लिंग-आधारित पूर्वाग्रह हो सकता है। जब कोड और डेटा बंद होते हैं, तो उनका ऑडिट, चुनौती या मरम्मत करना असंभव होता है। यह'अल्गोरिद्मिक शासन'का एक नया रूप है — स्वचालित निर्णय जो जीवन को नियंत्रित करते हैं।
ऐसा क्यों होता है?
इनमें से कई तकनीकें ऐसी कंपनियों द्वारा बनाई जाती हैं जो कोड नहीं दिखातीं, डेटा नहीं दिखातीं, और यह नहीं बतातीं कि निर्णय कैसे लिए जाते हैं।
अन्य को सार्वजनिक या निजी संस्थानों द्वारा "ब्लैक बॉक्स" के रूप में खरीदा जाता है: वे काम करते हैं... लेकिन कोई भी यह नहीं देख सकता कि उनके अंदर क्या है।
और प्रभाव क्या हैं?
समस्याएँ सैद्धांतिक नहीं हैं; वे प्रतिदिन होती हैं:
अन्याय: ऐसी प्रणालियाँ जो कुछ लोगों के साथ (लिंग, पड़ोस, रंग, उच्चारण के आधार पर) बुरा व्यवहार करती हैं।
अवसरों का नुकसान: एल्गोरिदम जो क्रेडिट, बीमा या रोजगार से वंचित करते हैं।
निगरानी: कैमरे जो बिना किसी कारण के लोगों का पीछा करते हैं।
तनाव और भ्रम: यह महसूस करना कि "कुछ" हमारे लिए निर्णय लेता है, लेकिन यह जाने बिना कि कैसे। यह ऐसे स्थान में रहने जैसा है जहाँ नियम हैं, लेकिन कोई आपको नहीं बताता कि वे क्या हैं।
पहले से ही हाशिए पर मौजूद समूह सबसे बुरा प्रभाव महसूस करते हैं: एल्गोरिद्मिक पक्षपात असमानताओं को स्वचालित निर्णयों में बदल देते हैं।
अपारदर्शिता तटस्थ नहीं है; यह पहले से मौजूद अन्यायों को और बढ़ाती है।
Awful AI क्या करता है?
Awful AI कोई "जादुई उपकरण" नहीं है, बल्कि दृश्यता और बहस के लिए एक बुनियादी ढांचा है — एक खुली भंडार, जो वाणिज्यिक पक्षपात से मुक्त है, और AI के दुरुपयोग का दस्तावेजीकरण और रिपोर्टिंग करता है। यह अपने आप में महत्वपूर्ण है: यह उस चीज़ को दृश्यमान बनाता है जिसे आमतौर पर छिपाया जाता है। पारदर्शिता जवाबदेही की दिशा में पहला कदम है।
यह खुला होने का मतलब है कि कोई भी — शोधकर्ता, पत्रकार, कार्यकर्ता — सूची देख सकता है, मामलों की जांच कर सकता है, शिकायतों को दोहरा सकता है, अध्ययन कर सकता है, और संस्थानों पर दबाव डाल सकता है। यह कॉर्पोरेट-तकनीकी केंद्र के बाहर के समुदायों को सशक्त बनाता है।
इसके अतिरिक्त, Awful AI लेखकों द्वारा "contestational tech" — यानी विवाद और प्रतिरोध की तकनीकें — को प्रेरित करता है: चूंकि समस्या मौजूद है, इसलिए प्रतिबलों के बारे में सोचना अतिआवश्यक है। हालाँकि रिपॉजिटरी स्वयं एक तैयार-प्रणाली विकल्प प्रदान नहीं करती है, यह एक महत्वपूर्ण ज्ञान आधार के रूप में कार्य करती है, उन लोगों के लिए एक शुरुआती बिंदु है जो सामान्य भलाई के अनुरूप निष्पक्ष, विनियमित, ऑडिट करने योग्य एआई की कल्पना करना चाहते हैं।
यह कार्य आवश्यक है: एआई की कथित अनिवार्यता को अप्राकृतिक बनाने के लिए, यह पुनः पुष्टि करने के लिए कि प्रौद्योगिकियाँ सामाजिक और राजनीतिक विकल्प हैं और नैतिक निर्णयों पर निर्भर करती हैं।
यह पुर्तगाल में नागरिक प्रौद्योगिकी बनाने वालों की कैसे मदद करता है
हालाँकि Awful AI पुर्तगाली नहीं है — और दस्तावेज़ित मामले अक्सर संयुक्त राज्य अमेरिका, यूरोप या वैश्विक उत्तर से आते हैं — किसी भी संदर्भ में जहाँ AI और स्वचालन बढ़ रहे हैं, एक महत्वपूर्ण अवसंरचना के रूप में इसकी भूमिका मूल्यवान है।
पुर्तगाल में, जैसे पूरे यूरोप में, सार्वजनिक और निजी पहलें स्वचालित प्रणालियों को अपनाने लगी हैं: चेहरे की पहचान, एल्गोरिदम के अधीन प्रशासनिक निर्णय, बड़े पैमाने पर व्यक्तिगत डेटा का विश्लेषण। निगरानी, बहस और विकल्पों के बिना, हम उन्हीं दुरुपयोगों को दोहराएंगे — अलगाव, अस्पष्टता, एल्गोरिदमिक भेदभाव और व्यापक निगरानी।
जो लोग मुक्त सॉफ़्टवेयर, खुले डेटा और खुली शासन का समर्थन करते हैं, उनके लिए Awful AI जागरूकता बढ़ाने, दस्तावेज़ीकरण और संगठित कार्रवाई के लिए एक मूल्यवान उपकरण के रूप में कार्य करता है।
एक ऐसी तकनीक जिस पर हम भरोसा कर सकते हैं क्योंकि हम देख सकते हैं कि यह कैसे काम करती है।
यह रिपॉजिटरी हमें यह समझने में मदद करती है कि बेहतर तरीके मौजूद हैं:
मुक्त सॉफ़्टवेयर: हम कोड को देख सकते हैं और उसमें योगदान दे सकते हैं
खुला और अच्छी तरह से प्रलेखित डेटा: हम जानते हैं कि निर्णय कहाँ से आते हैं
सामुदायिक उपकरण: मदद के लिए बनाए गए, निगरानी के लिए नहीं
लो-टेक या हाइब्रिड तकनीक: सरल, लेकिन पारदर्शी
ऐसी प्रक्रियाएँ जो समीक्षा और सुधार को स्वीकार करती हैं।
अपारदर्शिता तटस्थ नहीं है; यह पहले से मौजूद अन्यायों को बनाए रखती है।
लिंक
daviddao/awful-ai: Awful AI - 2021 संस्करण (DOI 10.5281/zenodo.5855971)





0 commentaire
Connectez-vous ou créez un compte pour ajouter votre commentaire.