TECHNOLOGY

पाठ स्वत: पूर्णता प्रणाली का लक्ष्य हमारे जीवन को आसान बनाना है, लेकिन इसमें जोखिम भी हैं

इस 12 जनवरी, 2022 को फ्यूचर ऑफ वर्क समिट में सीआईओ, सीटीओ, और अन्य सी-लेवल और डेटा और एआई रणनीतियों पर वरिष्ठ अधिकारियों से सुनें। और अधिक जानें


यदि आपने हाल ही में एक टेक्स्ट संदेश या ईमेल लिखा है, तो संभावना है कि एआई आपको अलग-अलग समानार्थक शब्द, वाक्यांश या वाक्य समाप्त करने के तरीके सुझाए। Google के स्मार्ट कंपोज़ जैसे एआई-संचालित ऑटोसुझाव टूल का उदय उद्यम संचार के डिजिटल परिवर्तन के साथ हुआ है, जो अब ज्यादातर ऑनलाइन रहते हैं। यह है अनुमानित कि सामान्य कार्यकर्ता प्रतिदिन लगभग 40 ईमेल का उत्तर देता है और भेजता है प्रति सप्ताह 200 से अधिक स्लैक संदेश।

Adobe के साथ मैसेजिंग कार्यदिवस के बढ़ते हिस्से का उपभोग करने की धमकी देता है पेगिंग कर्मचारी सप्ताह में 15.5 घंटे ईमेल का जवाब देने में कितना समय व्यतीत करते हैं। निरंतर कार्य स्विचिंग उत्पादकता के लिए एक मौत की घंटी है, जो अध्ययन निर्बाध कार्य से लाभ दिखाते हैं। अनुसंधान कैलिफोर्निया विश्वविद्यालय और हंबोल्ट विश्वविद्यालय के शोधकर्ताओं ने पाया कि हर बार बाधित होने पर श्रमिक किसी कार्य में 23 मिनट तक खो सकते हैं, आगे लंबा करना कार्यदिवस।

स्वतः सुझाव उपकरण संदेश-लेखन और उत्तर को सुव्यवस्थित करके समय बचाने का वादा करते हैं। उदाहरण के लिए, Google का स्मार्ट रिप्लाई उन ईमेल के लिए त्वरित प्रतिक्रिया का सुझाव देता है जिन्हें टाइप करने में सामान्य रूप से कुछ मिनट लगते हैं। लेकिन इन उपकरणों के पीछे एआई में कमियां हैं जो पूर्वाग्रहों को पेश कर सकती हैं या अवांछित तरीकों से मैसेजिंग में इस्तेमाल की जाने वाली भाषा को प्रभावित कर सकती हैं।

स्वतः सुझाव और पाठ स्वतः पूर्णता में वृद्धि

प्रेडिक्टिव टेक्स्ट कोई नई तकनीक नहीं है। पहले व्यापक रूप से उपलब्ध उदाहरणों में से एक, टी9, जो प्रत्येक अक्षर के लिए एक ही कीप्रेस से शब्दों को बनाने की अनुमति देता है, 90 के दशक के अंत में कई सेलफोन पर मानक आया। लेकिन भाषा में अधिक परिष्कृत, स्केलेबल एआई तकनीकों के आगमन ने ऑटोसुझाव टूल की गुणवत्ता और चौड़ाई में छलांग लगा दी।

2017 में, Google ने लॉन्च किया स्मार्ट उत्तर जीमेल में, जिसे बाद में कंपनी ने चैट और थर्ड-पार्टी ऐप्स सहित अन्य Google सेवाओं में लाया। Google के अनुसार, स्मार्ट रिप्लाई के पीछे का AI केवल एक संदेश नहीं, बल्कि “बातचीत के पूर्ण संदर्भ के आधार पर” उत्तर सुझाव उत्पन्न करता है – जिसके परिणामस्वरूप ऐसे सुझाव मिलते हैं जो अधिक सामयिक और प्रासंगिक होते हैं। स्मार्ट लिखें, जो ईमेल में पूरे वाक्यों का सुझाव देता है, एक साल बाद जीमेल और Google डॉक्स में आया जल्दी ही उसके बाद से. एक समान विशेषता जिसे . कहा जाता है सुझाए गए उत्तर 2018 में माइक्रोसॉफ्ट आउटलुक और 2020 में टीम्स में आया।

ऑटो-सुझाव उपकरणों की नई फसल के पीछे की तकनीक – जिसे कुछ अकादमिक मंडल “एआई-मध्यस्थता संचार” के रूप में संदर्भित करते हैं – 90 के दशक में मौजूद चीजों से आगे निकल गए हैं। उदाहरण के लिए, स्मार्ट कंपोज़ को रेखांकित करने वाला AI मॉडल ईमेल के अरबों उदाहरणों का उपयोग करके बनाया गया था और कस्टम एक्सेलेरेटर हार्डवेयर पर क्लाउड में चलता है। इस बीच, स्मार्ट रिप्लाई – जो स्मार्ट कंपोज़ की नींव के रूप में कार्य करता है – सुझावों के लिए एक “पदानुक्रमित दृष्टिकोण” लेता है, जो इस बात से प्रेरित है कि मनुष्य भाषाओं और अवधारणाओं को कैसे समझते हैं।

माइक्रोसॉफ्ट स्मार्ट उत्तर

ऊपर: आउटलुक का स्मार्ट रिप्लाई एज़्योर मशीन लर्निंग में प्रशिक्षित डीप लर्निंग मॉडल का उपयोग करता है।

छवि क्रेडिट: माइक्रोसॉफ्ट

“भाषा की सामग्री गहराई से पदानुक्रमित है, भाषा की संरचना में ही परिलक्षित होती है …” Google शोध वैज्ञानिक ब्रायन स्ट्रोप और इंजीनियरिंग निदेशक रे कुर्ज़वील समझाना एक ब्लॉग पोस्ट में। “संदेश पर विचार करें, ‘कैफे में उस दिलचस्प व्यक्ति ने मुझे पसंद किया।’ … इस संदेश के लिए एक उपयुक्त प्रतिक्रिया का प्रस्ताव करते हुए हम ‘नज़र’ शब्द के अर्थ पर विचार कर सकते हैं, जो संभावित रूप से अस्पष्ट है। क्या यह एक सकारात्मक इशारा था? उस स्थिति में, हम उत्तर दे सकते हैं, ‘कूल!’ या यह एक नकारात्मक इशारा था? यदि हां, तो क्या विषय इस बारे में कुछ कहता है कि लेखक ने नकारात्मक आदान-प्रदान के बारे में कैसा महसूस किया? सूक्ष्म भेद करने के लिए दुनिया के बारे में बहुत सारी जानकारी, और तर्कसंगत निर्णय लेने की क्षमता की आवश्यकता होती है। भाषा के पर्याप्त उदाहरणों को देखते हुए, मशीन सीखने का दृष्टिकोण इनमें से कई सूक्ष्म भेदों की खोज कर सकता है। “

लेकिन जैसा कि सभी तकनीकों के साथ होता है, यहां तक ​​कि सबसे सक्षम ऑटोसुझाव उपकरण भी विकास – और परिनियोजन – प्रक्रिया के दौरान आने वाली खामियों के प्रति संवेदनशील होते हैं।

दिसंबर 2016 में, यह था प्रकट किया कि Google खोज की स्वतः पूर्ण सुविधा विशिष्ट खोज वाक्यांशों के लिए घृणित और आपत्तिजनक अंत का सुझाव देती है, जैसे “क्या यहूदी बुरे हैं?” वाक्यांश “यहूदी हैं” के लिए। कंपनी के अनुसार, गलती एक एल्गोरिथम प्रणाली थी जो अन्य उपयोगकर्ताओं द्वारा हाल ही में खोजे गए सुझावों के आधार पर सुझावों को अद्यतन करती है। जबकि Google ने अंततः एक सुधार लागू किया, कंपनी को इसके लिए स्वत: पूर्णता सुझावों को अवरुद्ध करने में कई और वर्ष लग गए विवादास्पद राजनीतिक बयान मतदान आवश्यकताओं और चुनावी प्रक्रियाओं की वैधता के बारे में झूठे दावों सहित।

स्मार्ट उत्तर दिया गया है मिल गया एक संदेश के जवाब में “पगड़ी पहने हुए व्यक्ति” इमोजी की पेशकश करने के लिए जिसमें एक बंदूक इमोजी शामिल था। और iOS पर Apple का स्वतः पूर्णता इससे पहले सीईओ, सीओओ और सीटीओ सहित कार्यकारी भूमिकाओं के लिए केवल पुरुष इमोजी का सुझाव दिया।

पक्षपाती डेटा

स्वतः पूर्णता और स्वतः सुझाव प्रणाली में खामियां अक्सर पक्षपाती डेटा से उत्पन्न होती हैं। लाखों से अरबों उदाहरण जिनसे सिस्टम सीखता है, से पाठ के साथ दागी जा सकती है जहरीली वेबसाइट जो कुछ लिंगों, जातियों को जोड़ता है, जातियों, और धर्म आहत करने वाली अवधारणाओं के साथ। समस्या का चित्रण, ज़ाब्ता, अनुसंधान प्रयोगशाला OpenAI द्वारा विकसित एक कोड-जनरेटिंग मॉडल, “इस्लाम” शब्द खिलाए जाने पर “आतंकवादी” लिखने के लिए प्रेरित किया जा सकता है। एआई स्टार्टअप का एक और बड़ा भाषा मॉडल जुटना पुरुषों और महिलाओं को रूढ़िवादी रूप से “पुरुष” और “महिला” व्यवसायों के साथ जोड़ने की प्रवृत्ति है, जैसे “पुरुष वैज्ञानिक” और “महिला हाउसकीपर।”

Google डॉक्स के लिए स्मार्ट कंपोज़

ऊपर: Google डॉक्स के लिए स्मार्ट कंपोज़।

डेटा में टिप्पणियां नई समस्याएं पेश कर सकती हैं – या मौजूदा समस्याओं को बढ़ा सकती हैं। चूंकि कई मॉडल ऐसे लेबल से सीखते हैं जो यह बताते हैं कि क्या किसी शब्द, वाक्य, पैराग्राफ या दस्तावेज़ में कुछ विशेषताएं हैं, जैसे सकारात्मक या नकारात्मक भावना, कंपनियां और शोधकर्ता मानव व्याख्याकारों की टीमों को उदाहरणों को लेबल करने के लिए भर्ती करते हैं, आमतौर पर अमेज़ॅन मैकेनिकल तुर्क जैसे क्राउडसोर्सिंग प्लेटफॉर्म से। ये व्याख्याकार अपने स्वयं के दृष्टिकोण के सेट – और पूर्वाग्रह – तालिका में लाते हैं।

एलन इंस्टीट्यूट फॉर एआई, कार्नेगी मेलॉन और वाशिंगटन विश्वविद्यालय के एक अध्ययन में, वैज्ञानिकों ने पाया कि लेबलर्स अफ्रीकी अमेरिकी अंग्रेजी (एएई) बोली में वाक्यांशों को सामान्य अमेरिकी अंग्रेजी समकक्षों की तुलना में अधिक जहरीले वाक्यांशों की व्याख्या करने की अधिक संभावना रखते हैं – उनके समझने के बावजूद एएई वक्ताओं द्वारा गैर विषैले के रूप में। आरासाइबरबुलिंग और दुष्प्रचार से निपटने के लिए Google की मूल कंपनी Alphabet के तहत काम करने वाले संगठन ने अपने प्रयोगों में इसी तरह के निष्कर्ष निकाले हैं। कंपनी के शोधकर्ताओं ने लेबलर्स के बीच टिप्पणियों में अंतर की खोज की है जो अफ्रीकी अमेरिकियों के रूप में स्वयं की पहचान करते हैं और एलजीबीटीक्यू + समुदाय के सदस्य बनाम एनोटेटर जो उन समूहों में से किसी के रूप में पहचान नहीं करते हैं।

कभी-कभी, पूर्वाग्रह जानबूझकर होता है – स्थानीय भाषा के व्यापार की बात। उदाहरण के लिए, लेखक, सामग्री निर्माण के लिए एआई सहायक विकसित करने वाले स्टार्टअप का कहना है कि वह अपने लेखन सुझावों में “व्यावसायिक अंग्रेजी” को प्राथमिकता देता है। सीईओ मे हबीब ने एएवीई में “आदतन होना” का उदाहरण दिया, एक क्रिया काल जो अंग्रेजी की किसी अन्य शैली में मौजूद नहीं है।

“तब से [the habitual be] परंपरागत रूप से व्यापार अंग्रेजी में उपयोग नहीं किया गया है, और इस प्रकार हमारे डेटासेट में उच्च आवृत्ति में दिखाई नहीं देता है, हम ‘आप यहां कुछ अजीब चीजें कर रहे हैं’ को सही करेंगे ‘आप कुछ अजीब चीजें कर रहे हैं बाहर यहाँ, ” हबीब ने ईमेल के माध्यम से वेंचरबीट को बताया। “[That said,] हमने मैन्युअल रूप से यह सुनिश्चित किया है कि स्थानीय भाषा-आधारित अभिवादन और साइन-ऑफ़ को लेखक द्वारा फ़्लैग नहीं किया जाएगा। कुछ स्थानीय भाषा औपचारिक व्यवसाय से अधिक लिंग-तटस्थ है अंग्रेजी, [for instance,] तो यह कंपनियों के लिए अधिक आधुनिक और ऑन-ब्रांड है।”

लेखन को प्रभावित करना

जब पूर्वाग्रह – जानबूझकर या नहीं – इसे स्वत: पूर्णता और स्वत: सुझाव प्रणाली में बनाते हैं, तो वे हमारे लिखने के तरीके को बदल सकते हैं। जिस विशाल पैमाने पर ये प्रणालियाँ संचालित होती हैं, उससे पूरी तरह से बचना मुश्किल (यदि असंभव नहीं है)। स्मार्ट उत्तर था उत्तरदायी 2016 में स्मार्टफ़ोन से भेजे गए सभी Gmail उत्तरों में से 10% के लिए।

अधिक व्यापक में से एक में आडिट स्वत: पूर्णता टूल के लिए, Microsoft शोधकर्ताओं की एक टीम ने स्वयंसेवकों के साथ साक्षात्कार किया, जिन्हें आउटलुक में स्वतः उत्पन्न उत्तरों पर अपने विचार देने के लिए कहा गया था। साक्षात्कारकर्ताओं ने कुछ उत्तरों को अति-सकारात्मक, संस्कृति और लिंग के बारे में उनकी धारणाओं में गलत, और कॉर्पोरेट पत्राचार जैसे कुछ संदर्भों के लिए बहुत अशिष्ट पाया। फिर भी, अध्ययन के दौरान प्रयोगों से पता चला कि आउटलुक द्वारा सुझाए गए छोटे, सकारात्मक और विनम्र उत्तरों के पक्ष में उपयोगकर्ताओं की अधिक संभावना थी।

गूगल स्मार्टरिप्लाई यूट्यूब

हार्वर्ड के एक अलग अध्ययन में पाया गया कि जब एक रेस्तरां के बारे में लिखने वाले लोगों को “सकारात्मक” स्वत: पूर्ण सुझावों के साथ प्रस्तुत किया गया था, तो परिणामी समीक्षाएं नकारात्मक सुझावों के साथ प्रस्तुत किए जाने की तुलना में अधिक सकारात्मक थीं। हार्वर्ड स्कूल ऑफ के एक शोधकर्ता केन अर्नोल्ड ने कहा, “यह सोचना रोमांचक है कि भविष्य की भविष्य कहनेवाला पाठ प्रणाली लोगों को अधिक प्रभावी लेखक बनने में कैसे मदद कर सकती है, लेकिन हमें उन सुझावों से बचाव के लिए पारदर्शिता और जवाबदेही की भी आवश्यकता है जो पक्षपाती या हेरफेर हो सकते हैं।” इंजीनियरिंग और अनुप्रयुक्त विज्ञान जो अध्ययन में शामिल थे, कहा बीबीसी.

यदि हानिकारक स्वतः पूर्णता की समस्या का एक व्यापक समाधान है, तो वह अभी तक खोजा नहीं जा सका है। Google ने स्मार्ट कंपोज़ में केवल लिंग-आधारित सर्वनाम सुझावों को ब्लॉक करने का विकल्प चुना क्योंकि सिस्टम प्राप्तकर्ताओं के लिंग और लिंग पहचान का एक खराब भविष्यवक्ता साबित हुआ। Microsoft का लिंक्डइन संभावित भूलों को रोकने के लिए, अपने भविष्य कहनेवाला संदेश उपकरण, स्मार्ट उत्तरों में लिंग वाले सर्वनाम से भी बचता है।

माइक्रोसॉफ्ट के सह-लेखक पढाई चेतावनी दी है कि यदि सिस्टम डिज़ाइनर स्वतः पूर्णता तकनीकों में कमियों को सक्रिय रूप से संबोधित नहीं करते हैं, तो वे न केवल उपयोगकर्ताओं को ठेस पहुँचाने का जोखिम उठाएँगे बल्कि उन्हें सिस्टम पर अविश्वास करने का जोखिम भी उठाएँगे। “सिस्टम डिजाइनरों को व्यक्तिगत और सामाजिक नेटवर्क स्तर पर निजीकरण रणनीतियों का पता लगाना चाहिए, विचार करें कि कैसे सांस्कृतिक मूल्यों और सामाजिक पूर्वाग्रहों को उनके सिस्टम द्वारा कायम रखा जा सकता है, और सीमाओं और मुद्दों को संबोधित करने के लिए सामाजिक संपर्क मॉडलिंग का पता लगाना चाहिए,” उन्होंने लिखा। “[O]आपके निष्कर्ष बताते हैं कि ईमेल और अन्य के लिए वर्तमान पाठ अनुशंसा प्रणाली [like] वास्तविक दुनिया के सामाजिक संबंधों और संचार आवश्यकताओं की सूक्ष्मताओं को प्रतिबिंबित करने के लिए प्रौद्योगिकियां अपर्याप्त रूप से सूक्ष्म हैं। “

वेंचरबीट

वेंचरबीट का मिशन तकनीकी निर्णय लेने वालों के लिए परिवर्तनकारी तकनीक और लेन-देन के बारे में ज्ञान हासिल करने के लिए एक डिजिटल टाउन स्क्वायर बनना है। जब आप अपने संगठनों का नेतृत्व करते हैं तो हमारा मार्गदर्शन करने के लिए हमारी साइट डेटा तकनीकों और रणनीतियों पर आवश्यक जानकारी प्रदान करती है। हम आपको हमारे समुदाय का सदस्य बनने के लिए आमंत्रित करते हैं:

  • आपकी रुचि के विषयों पर अप-टू-डेट जानकारी
  • हमारे समाचार पत्र
  • गेटेड विचार-नेता सामग्री और हमारे बेशकीमती आयोजनों के लिए रियायती पहुंच, जैसे रूपांतरण 2021: और अधिक जानें
  • नेटवर्किंग सुविधाएँ, और बहुत कुछ

सदस्य बने


Source link

Show More

Leave a Reply

Your email address will not be published.

Back to top button