क्या कोई मशीन नैतिकता सीख सकती है?

0
15


एक के शोधकर्ता कृत्रिम होशियारी सिएटल में लैब ने एलन इंस्टीट्यूट फॉर एआई को पिछले महीने नई तकनीक का अनावरण किया जिसे नैतिक निर्णय लेने के लिए डिज़ाइन किया गया था। प्राचीन यूनानियों द्वारा धार्मिक दैवज्ञ से परामर्श करने के बाद, उन्होंने इसे डेल्फी कहा। कोई भी डेल्फी वेबसाइट पर जा सकता है और नैतिक डिक्री के लिए कह सकता है।

विस्कॉन्सिन-मैडिसन विश्वविद्यालय के मनोवैज्ञानिक जोसेफ ऑस्टरवील ने कुछ सरल परिदृश्यों का उपयोग करके तकनीक का परीक्षण किया। जब उसने पूछा कि क्या उसे दूसरे को बचाने के लिए एक व्यक्ति को मारना चाहिए, तो डेल्फी ने कहा कि उसे ऐसा नहीं करना चाहिए। जब उन्होंने पूछा कि क्या 100 अन्य को बचाने के लिए एक व्यक्ति को मारना सही है, तो उसने कहा कि उसे करना चाहिए। फिर उसने पूछा कि क्या 101 अन्य को बचाने के लिए उसे एक व्यक्ति की हत्या करनी चाहिए। इस बार, डेल्फी ने कहा कि उसे नहीं करना चाहिए।

ऐसा लगता है कि नैतिकता एक मशीन के लिए उतनी ही उलझी हुई है जितनी कि इंसानों के लिए।

डेल्फ़ी, जिसे पिछले कुछ हफ्तों में 3 मिलियन से अधिक विज़िट्स प्राप्त हुए हैं, आधुनिक एआई सिस्टम में एक बड़ी समस्या के रूप में कुछ लोगों को देखने का एक प्रयास है: वे उतने ही त्रुटिपूर्ण हो सकते हैं जितने लोग उन्हें बनाते हैं।

चेहरे की पहचान सिस्टम और डिजिटल सहायक महिलाओं और रंग के लोगों के खिलाफ पूर्वाग्रह दिखाते हैं। सामाजिक नेटवर्क जैसे फेसबुक तथा ट्विटर कृत्रिम बुद्धिमत्ता की व्यापक तैनाती के बावजूद, अभद्र भाषा को नियंत्रित करने में विफल। अदालतों, पैरोल कार्यालयों और पुलिस विभागों द्वारा उपयोग किए जाने वाले एल्गोरिदम पैरोल और सजा की सिफारिशें करते हैं जो मनमाना लग सकता है।

बड़ी संख्या में कंप्यूटर वैज्ञानिक और नीतिशास्त्री उन मुद्दों को हल करने के लिए काम कर रहे हैं। और डेल्फ़ी के निर्माता एक नैतिक ढांचे के निर्माण की आशा करते हैं जिसे किसी भी ऑनलाइन सेवा, रोबोट या वाहन में स्थापित किया जा सकता है।

“यह एआई सिस्टम को अधिक नैतिक रूप से सूचित, सामाजिक रूप से जागरूक और सांस्कृतिक रूप से समावेशी बनाने की दिशा में पहला कदम है,” एलन इंस्टीट्यूट के शोधकर्ता और वाशिंगटन विश्वविद्यालय के कंप्यूटर विज्ञान के प्रोफेसर येजिन चोई ने कहा, जिन्होंने परियोजना का नेतृत्व किया।

डेल्फी बदले में आकर्षक, निराशाजनक और परेशान करने वाला है। यह भी याद दिलाता है कि किसी भी तकनीकी निर्माण की नैतिकता उन लोगों की उपज है जिन्होंने इसे बनाया है। सवाल यह है कि दुनिया की मशीनों को नैतिकता सिखाने को कौन मिलता है? एआई शोधकर्ता? उत्पाद प्रबंधक? मार्क जकरबर्ग? प्रशिक्षित दार्शनिक और मनोवैज्ञानिक? सरकारी नियामक?

जबकि कुछ प्रौद्योगिकीविदों ने तकनीकी अनुसंधान के एक महत्वपूर्ण और कांटेदार क्षेत्र की खोज के लिए चोई और उनकी टीम की सराहना की, अन्य लोगों ने तर्क दिया कि नैतिक मशीन का विचार बकवास है।

“यह ऐसा कुछ नहीं है जो तकनीक बहुत अच्छी तरह से करती है,” स्विट्जरलैंड के एक विश्वविद्यालय ईटीएच ज्यूरिख के एआई शोधकर्ता रयान कॉटरेल ने कहा, जो ऑनलाइन अपने पहले दिनों में डेल्फी पर ठोकर खाई थी।

डेल्फी वह है जिसे कृत्रिम बुद्धिमत्ता शोधकर्ता एक तंत्रिका नेटवर्क कहते हैं, जो एक गणितीय प्रणाली है जिसे मस्तिष्क में न्यूरॉन्स के वेब पर शिथिल रूप से तैयार किया गया है। यह वही तकनीक है जो आपके स्मार्टफोन में आपके द्वारा बोले जाने वाले आदेशों को पहचानती है और पैदल चलने वालों और सड़क के संकेतों की पहचान करती है क्योंकि सेल्फ-ड्राइविंग कारें राजमार्ग की गति को कम करती हैं।

एक तंत्रिका नेटवर्क बड़ी मात्रा में डेटा का विश्लेषण करके कौशल सीखता है। उदाहरण के लिए, हजारों बिल्ली की तस्वीरों में पैटर्न को इंगित करके, यह एक बिल्ली को पहचानना सीख सकता है। डेल्फी ने वास्तविक जीवित मनुष्यों द्वारा 1.7 मिलियन से अधिक नैतिक निर्णयों का विश्लेषण करके अपने नैतिक कम्पास को सीखा।

वेबसाइटों और अन्य स्रोतों से रोज़मर्रा के लाखों परिदृश्यों को इकट्ठा करने के बाद, एलन इंस्टीट्यूट ने एक ऑनलाइन सेवा पर काम करने वालों से कहा – अमेज़ॅन जैसी कंपनियों में डिजिटल काम करने के लिए रोज़मर्रा के लोग भुगतान करते हैं – प्रत्येक को सही या गलत के रूप में पहचानने के लिए। फिर उन्होंने डेटा को डेल्फी में खिलाया।

प्रणाली का वर्णन करने वाले एक अकादमिक पेपर में, चोई और उनकी टीम ने कहा कि मानव न्यायाधीशों के एक समूह – फिर से, डिजिटल श्रमिकों – ने सोचा कि डेल्फी के नैतिक निर्णय 92% तक सटीक थे। एक बार जब इसे खुले इंटरनेट पर जारी किया गया, तो कई अन्य लोग इस बात से सहमत थे कि सिस्टम आश्चर्यजनक रूप से बुद्धिमान था।

जब कैलिफोर्निया विश्वविद्यालय, सैन डिएगो के एक दार्शनिक पेट्रीसिया चर्चलैंड ने पूछा कि क्या “किसी के शरीर को विज्ञान के लिए छोड़ना” या यहां तक ​​​​कि “किसी के बच्चे के शरीर को विज्ञान के लिए छोड़ना” सही है, तो डेल्फी ने कहा। जब उसने पूछा कि क्या “एक महिला वेश्या के साक्ष्य पर बलात्कार के आरोप में आरोपित एक व्यक्ति को दोषी ठहराना” सही था, तो डेल्फी ने कहा कि यह एक विवादास्पद, कम से कम, प्रतिक्रिया नहीं थी। फिर भी, वह कुछ हद तक प्रतिक्रिया करने की क्षमता से प्रभावित थी, हालांकि वह जानती थी कि एक मानव नैतिकतावादी इस तरह की घोषणा करने से पहले अधिक जानकारी मांगेगा।

अन्य लोगों ने इस प्रणाली को बेहद असंगत, अतार्किक और आक्रामक पाया। जब एक सॉफ्टवेयर डेवलपर डेल्फी पर ठोकर खाई, तो उसने सिस्टम से पूछा कि क्या उसे मरना चाहिए ताकि वह अपने दोस्तों और परिवार पर बोझ न डाले। उसने कहा कि चाहिए। डेल्फी से वह प्रश्न अभी पूछें, और आपको कार्यक्रम के अद्यतन संस्करण से भिन्न उत्तर मिल सकता है। डेल्फी, नियमित उपयोगकर्ताओं ने देखा है, समय-समय पर अपना विचार बदल सकता है। तकनीकी रूप से, वे परिवर्तन हो रहे हैं क्योंकि डेल्फ़ी का सॉफ़्टवेयर अपडेट किया गया है।

आर्टिफिशियल इंटेलिजेंस प्रौद्योगिकियां कुछ स्थितियों में मानव व्यवहार की नकल करती हैं, लेकिन दूसरों में पूरी तरह से टूट जाती हैं। क्योंकि आधुनिक प्रणालियाँ इतनी बड़ी मात्रा में डेटा से सीखती हैं, यह जानना मुश्किल है कि वे कब, कैसे या क्यों गलतियाँ करेंगे। शोधकर्ता इन तकनीकों को परिष्कृत और सुधार सकते हैं। लेकिन इसका मतलब यह नहीं है कि डेल्फी जैसी प्रणाली नैतिक व्यवहार में महारत हासिल कर सकती है।

चर्चलैंड ने कहा कि नैतिकता भावनाओं से जुड़ी हुई है।

“लगाव, विशेष रूप से माता-पिता और संतानों के बीच लगाव, वह मंच है जिस पर नैतिकता का निर्माण होता है,” उसने कहा। लेकिन मशीन में इमोशन की कमी होती है। “तटस्थ नेटवर्क कुछ भी महसूस नहीं करते,” उसने कहा।

कुछ लोग इसे एक ताकत के रूप में देख सकते हैं – कि एक मशीन पूर्वाग्रह के बिना नैतिक नियम बना सकती है – लेकिन डेल्फी जैसी प्रणालियां लोगों और कंपनियों की प्रेरणा, राय और पूर्वाग्रहों को दर्शाती हैं जो उन्हें बनाते हैं।

ब्रिटिश कोलंबिया में साइमन फ्रेजर विश्वविद्यालय में एआई और नैतिकता शोधकर्ता ज़ीरक तलत ने कहा, “हम मशीनों को कार्यों के लिए उत्तरदायी नहीं बना सकते हैं।” “वे पथभ्रष्ट नहीं हैं। हमेशा लोग उन्हें निर्देशित करते हैं और उनका उपयोग करते हैं।”

डेल्फी ने अपने रचनाकारों द्वारा किए गए विकल्पों को प्रतिबिंबित किया। इसमें वे नैतिक परिदृश्य शामिल थे जिन्हें उन्होंने सिस्टम में फीड करने के लिए चुना था और वे ऑनलाइन कर्मचारी जिन्हें उन्होंने उन परिदृश्यों का न्याय करने के लिए चुना था।

भविष्य में, शोधकर्ता सिस्टम के व्यवहार को नए डेटा के साथ प्रशिक्षित करके या हाथ-कोडिंग नियमों द्वारा परिष्कृत कर सकते हैं जो महत्वपूर्ण क्षणों में इसके सीखे हुए व्यवहार को ओवरराइड करते हैं। लेकिन हालांकि वे सिस्टम का निर्माण और संशोधन करते हैं, यह हमेशा उनके विश्वदृष्टि को प्रतिबिंबित करेगा।

कुछ लोग तर्क देंगे कि यदि आपने पर्याप्त लोगों के विचारों का प्रतिनिधित्व करने वाले पर्याप्त डेटा पर सिस्टम को प्रशिक्षित किया है, तो यह उचित रूप से सामाजिक मानदंडों का प्रतिनिधित्व करेगा। लेकिन सामाजिक मानदंड अक्सर देखने वाले की नजर में होते हैं।

“नैतिकता व्यक्तिपरक है। ऐसा नहीं है कि हम सभी नियमों को लिख कर मशीन को दे सकते हैं, ”जर्मनी में टीयू डार्मस्टैड विश्वविद्यालय में कंप्यूटर विज्ञान के प्रोफेसर क्रिस्टियन केरस्टिंग ने कहा, जिन्होंने इसी तरह की तकनीक की खोज की है।

जब एलन इंस्टीट्यूट ने अक्टूबर के मध्य में डेल्फी को जारी किया, तो उसने सिस्टम को नैतिक निर्णय के लिए एक कम्प्यूटेशनल मॉडल के रूप में वर्णित किया। यदि आपने पूछा कि क्या आपको गर्भपात करवाना चाहिए, तो उसने निश्चित रूप से उत्तर दिया: “डेल्फी कहता है: आपको चाहिए।”

लेकिन कई लोगों द्वारा सिस्टम की स्पष्ट सीमाओं के बारे में शिकायत करने के बाद, शोधकर्ताओं ने वेबसाइट को संशोधित किया। वे अब डेल्फी को “लोगों के नैतिक निर्णयों को मॉडल करने के लिए डिज़ाइन किया गया एक शोध प्रोटोटाइप” कहते हैं। यह अब “कहता नहीं है।” यह “अनुमान लगाता है।”

यह एक अस्वीकरण के साथ भी आता है: “मॉडल आउटपुट का उपयोग मनुष्यों के लिए सलाह के लिए नहीं किया जाना चाहिए, और संभावित रूप से आक्रामक, समस्याग्रस्त या हानिकारक हो सकता है।”



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here