होम समाचार हमें एआई के लिए अंतर्निहित सुरक्षा तंत्र के साथ एक वैश्विक ढांचे...

हमें एआई के लिए अंतर्निहित सुरक्षा तंत्र के साथ एक वैश्विक ढांचे की आवश्यकता क्यों है?

15
0
हमें एआई के लिए अंतर्निहित सुरक्षा तंत्र के साथ एक वैश्विक ढांचे की आवश्यकता क्यों है?


12 दिसंबर, 2024 07:20 IST

पहली बार प्रकाशित: 12 दिसंबर, 2024, 07:20 IST

चैटजीपीटी जैसी नई तकनीकों के आगमन के साथ, दुनिया भर की सरकारें और नीति निर्माता एआई के प्रति आसक्त हो गए हैं। राष्ट्र एक-दूसरे से आगे निकलने की नासमझ प्रतिस्पर्धा में उलझे हुए हैं, उन्हें यकीन है कि जो पीछे रह जाएंगे वे हार जाएंगे। एआई के समर्थक उत्साहित हैं, लेकिन उनमें से कई गंभीर आवाजें चिंतित हैं और यह अकारण नहीं है। एआई के अग्रणी जेफ्री हिंटन ने मानव बौद्धिक क्षमताओं को पार करने की इसकी क्षमता पर जोर दिया है। जबकि उन्होंने कहा है कि एआई “औद्योगिक क्रांति के साथ तुलनीय होगा,” उन्होंने यह भी चेतावनी दी है कि “हमें कई संभावित बुरे परिणामों के बारे में भी चिंता करनी होगी, विशेष रूप से इन चीजों के नियंत्रण से बाहर होने का खतरा।” जो बात नहीं भूलनी चाहिए वह यह है कि नई प्रौद्योगिकियाँ समाजों और अर्थव्यवस्थाओं के लिए कितनी विघटनकारी हो सकती हैं।

आज, एआई प्रौद्योगिकियां हमारे जीवन में अंतर्निहित हैं, वर्चुअल असिस्टेंट और स्मार्ट होम डिवाइस से लेकर एआई-संचालित एल्गोरिदम तक जो हम ऑनलाइन देखते हैं उसे प्रभावित करते हैं। ChatGPT, Copilot और जैसे AI टूल द्वारा उत्पन्न सामग्री मिथुन यह पाया गया है कि यह मनगढ़ंत डेटा प्रदान करता है जो प्रामाणिक प्रतीत होता है। एआई मॉडल को बड़ी मात्रा में डेटा पर प्रशिक्षित किया जाता है जिसमें सटीक और गलत सामग्री के साथ-साथ सामाजिक और सांस्कृतिक पूर्वाग्रह भी शामिल होते हैं। चूंकि मॉडल सच्चाई को समझे बिना प्रशिक्षण डेटा में पैटर्न की नकल करते हैं, वे डेटा में मौजूद झूठ और पूर्वाग्रहों को पुन: उत्पन्न कर सकते हैं जिसके परिणामस्वरूप भेदभावपूर्ण लक्ष्यीकरण हो सकता है।

मार्च 2023 में, प्रौद्योगिकी कंपनियों के नेताओं और शोधकर्ताओं ने एआई उपकरणों द्वारा उत्पन्न “समाज और मानवता के लिए गंभीर जोखिम” के बारे में दुनिया को आगाह किया। स्थगन की अपील करते हुए, उन्होंने आगाह किया कि एआई डेवलपर्स अधिक शक्तिशाली डिजिटल दिमाग विकसित करने की अनियंत्रित दौड़ में फंस गए हैं, जिसे कोई भी नहीं, यहां तक ​​कि उनके निर्माता भी नहीं समझ सकते हैं और विश्वसनीय रूप से नियंत्रित नहीं कर सकते हैं। बड़े पैमाने पर एआई के दुरुपयोग के अनगिनत उदाहरण हैं। एआई धोखाधड़ी के अधिक परिष्कृत रूपों के लिए एक उपकरण बन गया है। घटनाओं और व्यक्तियों का यथार्थवादी लेकिन गलत प्रतिनिधित्व बनाने के लिए एआई-जनित छवियों, वीडियो और ऑडियो क्लिप में हेरफेर किया जा रहा है। राजनीतिक अभियानों और सोशल मीडिया में भ्रामक जानकारी फैलाने, जनता के विश्वास को कम करने के लिए डीपफेक का उपयोग किया जा रहा है। हाल के प्रकरण सतर्कता की तत्काल आवश्यकता को रेखांकित करते हैं क्योंकि एआई प्रौद्योगिकियां अधिक सुलभ और परिष्कृत हो गई हैं।

सरकारें और संस्थाएं सोशल मीडिया पर निगरानी रखने, व्यक्तियों पर नज़र रखने या कुछ प्रकार की सामग्री को दबाने के लिए एआई का उपयोग कर सकती हैं, जिससे मुक्त भाषण पर रोक लग सकती है। स्वायत्त प्रणालियों द्वारा किए गए कार्यों की जवाबदेही अस्पष्ट बनी हुई है, जिससे कानूनी और नैतिक जिम्मेदारियां जटिल हो गई हैं। एआई का प्रभाव डिजिटल दुनिया तक ही सीमित नहीं है बल्कि नौकरी बाजार तक भी फैला हुआ है। विनिर्माण से लेकर ग्राहक सेवा तक विभिन्न क्षेत्रों में ऑटोमेशन और एआई सिस्टम तेजी से मानव श्रमिकों की जगह ले रहे हैं, जिससे लाखों कार्यबल बेकार हो रहे हैं।

यह अस्वस्थता व्यापक है, जिससे सामाजिक स्थिरता और नियम-आधारित व्यवस्था को खतरा है। साइबर अपराध, धोखाधड़ी और विशेष रूप से सोशल मीडिया के दुरुपयोग, प्रतिष्ठा को नष्ट करने, कमजोर निर्दोष लोगों को निशाना बनाने और शर्मिंदा करने और आत्महत्याओं को प्रेरित करने की चिंताजनक वृद्धि के अनुभव को याद करना महत्वपूर्ण है। पीड़ितों से उनकी निजता, गरिमा छीन ली जाती है। नागरिकों की सुरक्षा के लिए कोई रेलिंग नहीं है। दुरुपयोग को रोकने और प्लेटफार्मों और सेवा प्रदाताओं की जवाबदेही को लागू करने के लिए कानून बनाने से दुर्भाग्य से शिकायतों के समय पर निवारण में मदद नहीं मिली है। निवारण के तंत्र जटिल हैं और उन लोगों के लिए दुर्गम हैं जो सबसे कमजोर, गरीब और अनजान हैं।

हालाँकि सरकारें और नीति निर्माता नई प्रौद्योगिकियों के लाभों के प्रति सचेत हैं, लेकिन नुकसान को दूर नहीं किया जा सकता है। इसके सकारात्मक लाभ और परेशान करने वाले नकारात्मक पहलू दोनों हैं, जिनमें अपराधियों और धोखेबाजों द्वारा गैर-जिम्मेदाराना उपयोग और दुरुपयोग भी शामिल है। एआई के विवेकपूर्ण उपयोग और जोखिमों को कम करने के लिए एक स्वस्थ पारिस्थितिकी तंत्र की आवश्यकता है। हाल ही में, EU ने आर्टिफिशियल इंटेलिजेंस अधिनियम, 2024 पेश किया है और डेवलपर्स पर कुछ दायित्व लगाते हुए AI के संभावित जोखिम को विभिन्न श्रेणियों के तहत वर्गीकृत किया है। इसी तरह, अमेरिका ने भी रोजगार, आवास और ऋण जैसे उच्च जोखिम वाले क्षेत्रों में एआई के प्रभाव का आकलन करने के लिए एल्गोरिदमिक जवाबदेही अधिनियम, 2023 का प्रस्ताव दिया है। वर्तमान में, भारत के पास एआई के उचित कामकाज और विकास के लिए व्यवस्थित विनियमन निर्धारित करने या नियंत्रित करने के लिए कोई विशिष्ट, एकल एकीकृत कानून नहीं है।

इसलिए, अपराध, धोखाधड़ी और नई प्रौद्योगिकियों के दुरुपयोग से निपटने के लिए एक व्यापक वैश्विक ढांचे और अंतर्निहित सुरक्षा उपायों और जांच और संतुलन के साथ एक कार्यात्मक तंत्र की आवश्यकता है। यह सुनिश्चित करने के लिए मौजूदा कानूनों और प्रतिकूल परिणामों का मूल्यांकन करना महत्वपूर्ण है कि कानूनी मार्ग एक बहुत जरूरी संतुलित दृष्टिकोण बनाने में मदद करता है। ऐसे मामलों की जांच से जुड़ी सरकारों और अपराध एजेंसियों को तेजी से अपराधियों को सजा दिलानी चाहिए। दुर्भाग्य से, व्यावसायिक लाभ जैसे कारणों से प्लेटफॉर्म और नई तकनीकों के मालिकों द्वारा वेक-अप कॉल को नजरअंदाज किया जा रहा है।

रुककर विचार करने की आवश्यकता है। एआई के लाभों के साथ-साथ इसके कारण होने वाले व्यवधानों का निष्पक्ष मूल्यांकन आवश्यक है। हमें यह स्पष्ट होना चाहिए कि हम किस प्रकार का समाज बनाना चाहते हैं, जो संवेदनशील और मानवीय हो या जिसमें सहानुभूति का अभाव हो।

आनंद शर्मा (पूर्व केंद्रीय कैबिनेट मंत्री), शिम्पी शर्मा और एलेक्जेंड्रा सेलेस्टाइन भारत के सर्वोच्च न्यायालय में वकील हैं





Source link

कोई जवाब दें

कृपया अपनी टिप्पणी दर्ज करें!
कृपया अपना नाम यहाँ दर्ज करें