ऑस्ट्रेलिया को कृत्रिम बुद्धिमत्ता के लिए मजबूत नियमों की आवश्यकता है

जावास्क्रिप्ट अक्षम है
यदि संभव हो, तो कृपया CHOICE वेबसाइट पर बेहतर अनुभव के लिए जावास्क्रिप्ट सक्षम करें।

पता करने की जरूरत

  • जैसे-जैसे एआई तेजी से मुख्यधारा बन रहा है, हमें इस तकनीक से उत्पन्न होने वाले जोखिमों के बारे में जागरूक होने की जरूरत है
  • हम पहले से ही एआई के उपयोग से होने वाले नुकसान के उदाहरण देख रहे हैं जैसे स्वचालित मूल्य निर्धारण से भेदभावपूर्ण परिणाम
  • चॉइस ने सरकार को हमारे सुझावों को रेखांकित करते हुए प्रस्तुत किया है कि उपभोक्ताओं को एआई के जोखिमों से कैसे बचाया जा सकता है, जिसमें कानून को जोखिम-आधारित बनाना और मजबूत नियामकों की नियुक्ति करना शामिल है।

एक समय अकादमिक पेपरों और विज्ञान कथाओं तक ही सीमित रहने वाला 2023 ऐसा वर्ष लगता है जैसे कृत्रिम बुद्धिमत्ता (एआई) आधिकारिक तौर पर अनुसंधान प्रयोगशालाओं से निकलकर उपभोक्ता बाजार में आ गई है। AI-आधारित टूल ChatGPT और DALL-E घरेलू नाम बन गए हैं, और AI उत्पादकता और आनंद दोनों प्रदान करने का वादा करता है।

हालाँकि AI के अपने फायदे हैं, हमें जोखिमों को नज़रअंदाज़ नहीं करना चाहिए। व्यवसाय लाभप्रदता बढ़ाने के लिए एआई की ओर देख रहे हैं, अक्सर उपभोक्ताओं की कीमत पर।

कृत्रिम बुद्धि के जोखिम 

पिछले वर्ष की हमारी जांच में पाया गया है कि चेहरे की पहचान तकनीक ने खुदरा दुकानों, पब और क्लबों और स्टेडियमों में अपनी जगह बना ली है। यह तकनीक व्यवसायों को पहचान डेटाबेस के आधार पर लोगों तक पहुंच से स्वचालित रूप से इनकार करने देती है, लेकिन विशेषज्ञों ने ऐसा किया है विशेषकर विकलांग लोगों और रंगीन लोगों के लिए अशुद्धि की चौंकाने वाली दर पाई गई औरत)।

AI का उपयोग पहले से कहीं अधिक डेटा संसाधित करने के लिए भी किया जा रहा है। व्यवसाय यह निर्णय लेने के लिए भी एल्गोरिदम का उपयोग करते हैं कि हमें अपनी किराने के सामान से लेकर बीमा या सदस्यता योजनाओं और यहां तक ​​​​कि हमारे गृह ऋण तक चीजों के लिए कितना भुगतान करना चाहिए।

चैटजीपीटी का उपयोग करने वाले चैटबॉट अपने उत्तरों में गलत जानकारी दोहरा सकते हैं या खतरनाक सलाह दे सकते हैं

लेकिन जब मूल्य निर्धारण निर्णय पूरी तरह से स्वचालित होते हैं तो इससे भेदभावपूर्ण परिणाम हो सकते हैं, जैसे कि हाशिए पर रहने वाले पृष्ठभूमि के लोगों के लिए उच्च प्रीमियम या वृद्ध लोगों के लिए बढ़ी हुई कीमतें।

चैटजीपीटी जैसा जेनरेटिव एआई अपने स्वयं के खतरों के साथ आता है। चैटजीपीटी का उपयोग करने वाले चैटबॉट अपने उत्तरों में गलत जानकारी दोहरा सकते हैं या खतरनाक सलाह दे सकते हैं। संघीय व्यापार आयोग, अमेरिका का प्रतिस्पर्धा प्रहरी, वर्तमान में जांच कर रहा है कि क्या चैटजीपीटी ने गलत जानकारी बनाकर लोगों को नुकसान पहुंचाया है, और इसकी गोपनीयता प्रथाओं पर भी गौर कर रहा है।

उपभोक्ताओं की सुरक्षा के लिए क्या करने की आवश्यकता है?

व्यक्ति स्टाइलस का उपयोग करके टैबलेट पर बिक्री के आंकड़े दिखा रहा है

व्यवसाय यह निर्णय लेने के लिए एल्गोरिदम का उपयोग करते हैं कि लोगों को उन चीज़ों के लिए कितना भुगतान करना चाहिए जिनके परिणामस्वरूप अनुचित परिणाम हो सकते हैं।

एआई कानून जोखिम आधारित होने चाहिए

विशेषज्ञ काफी समय से इन जोखिमों के बारे में चेतावनी दे रहे हैं, लेकिन दुनिया भर की सरकारें केवल इस पर ध्यान दे रही हैं। ऑस्ट्रेलिया अब AI पर अपना स्वयं का परामर्श चला रहा है, और CHOICE ने अभी हमारे सुझाव प्रस्तुत किए हैं कि सरकार उपभोक्ताओं को इन जोखिमों से कैसे बचा सकती है।

हमारे निवेदन के मूल में एआई के लिए जोखिम-आधारित दृष्टिकोण की आवश्यकता है, जैसा कि यूरोपीय संघ प्रस्तावित कर रहा है। एक जोखिम-आधारित ढांचा एआई गतिविधियों को उन गतिविधियों से वर्गीकृत करता है जिन्हें न्यूनतम जोखिम माना जाता है और इसलिए उन लोगों के लिए कुछ सीमाओं की आवश्यकता होती है जो उच्च जोखिम वाले होते हैं जो प्रतिबंधित या प्रतिबंधित होते हैं।

हमने यह भी सुझाव दिया कि हमारे एआई कानूनों को सुरक्षा, निष्पक्षता, जवाबदेही, विश्वसनीयता और पारदर्शिता के उपभोक्ता अधिकारों को संहिताबद्ध करना चाहिए।

लोगों को एआई के दुरुपयोग या शोषण से व्यापक सुरक्षा सुनिश्चित करने के लिए संघीय सरकार को ऑस्ट्रेलियाई उपभोक्ता कानून और गोपनीयता अधिनियम जैसे मौजूदा कानूनों को भी मजबूत करना चाहिए।

मजबूत नियामक जरूरी हैं

लेकिन नए कानून बनाना पर्याप्त नहीं है - हमें इन कानूनों को लागू करने के लिए मजबूत नियामकों की आवश्यकता है। CHOICE नागरिक और आपराधिक दंड शक्तियों सहित कई नियामक शक्तियों के साथ एक अच्छी तरह से वित्त पोषित एआई आयुक्त की मांग कर रहा है।

एक एआई आयुक्त को जिम्मेदार मौजूदा नियामक निकायों के साथ सहयोग करने में अपनी विशेषज्ञ विशेषज्ञता का लाभ उठाना चाहिए अर्थव्यवस्था के उन क्षेत्रों की देखरेख के लिए जो एआई से प्रभावित हैं, जैसे उपभोक्ता अधिकार, प्रतिस्पर्धा, गोपनीयता और मानव अधिकार।

बड़ी तकनीकें खुद को विनियमित करना चाहती हैं, लेकिन इतिहास साबित करता है कि इन व्यवसायों पर अपने नियम लिखने के लिए भरोसा नहीं किया जा सकता है

बड़ी तकनीकें खुद को विनियमित करना चाहती हैं, लेकिन इतिहास साबित करता है कि इन व्यवसायों पर अपने नियम लिखने के लिए भरोसा नहीं किया जा सकता है। ऑस्ट्रेलिया को यूरोपीय संघ और कनाडा के नेतृत्व का पालन करना चाहिए और एक निष्पक्ष बाजार की नींव रखनी चाहिए जहां व्यवसायों को होना चाहिए उन्हें जारी करने से पहले सुरक्षित, निष्पक्ष, पारदर्शी, विश्वसनीय और जवाबदेह एआई सिस्टम की गारंटी दें।

यह न केवल हमारे समुदाय को नुकसान से बचाएगा, बल्कि प्रोत्साहित भी करेगा नवाचार और जिम्मेदार एआई उपयोग को बढ़ावा देना।

आप सरकार को हमारा पूरा निवेदन पढ़ सकते हैं यहाँ.

हम सटीकता की परवाह करते हैं. इस आलेख में कुछ ऐसा देखें जो बिल्कुल सही नहीं है? हमें बताइए या इसके बारे में और पढ़ें CHOICE पर तथ्य-जाँच.

स्टॉक छवियाँ: गेट्टी, जब तक अन्यथा न कहा गया हो।

चॉइस समुदाय चिह्न

अपने विचार साझा करने या प्रश्न पूछने के लिए, CHOICE सामुदायिक मंच पर जाएँ।

चॉइस समुदाय पर जाएँ
प्रथम राष्ट्र के झंडे

चॉइस में हम गैडिगल लोगों, इस भूमि के पारंपरिक संरक्षक, जिस पर हम काम करते हैं, को स्वीकार करते हैं और इस देश के प्रथम राष्ट्र के लोगों के प्रति अपना सम्मान व्यक्त करते हैं। CHOICE दिल से उलुरु वक्तव्य और संसद में प्रथम राष्ट्र की आवाज का समर्थन करता है।

  • Sep 08, 2023
  • 46
  • 0