राज्य के अटॉर्नी जनरल ने माइक्रोसॉफ्ट, ओपनएआई, गूगल और अन्य एआई दिग्गजों को ‘भ्रमपूर्ण’ आउटपुट को ठीक करने की चेतावनी दी है
Latest Technology, (लेटेस्ट टेक न्यूज़) Gadget (गैजेट्स) …
एआई चैटबॉट्स से जुड़ी परेशान करने वाली मानसिक स्वास्थ्य घटनाओं की एक श्रृंखला के बाद, राज्य अटॉर्नी जनरल के एक समूह ने एआई उद्योग की शीर्ष कंपनियों को एक पत्र भेजा है, जिसमें “भ्रमपूर्ण आउटपुट” को ठीक करने या राज्य कानून के उल्लंघन का जोखिम उठाने की चेतावनी दी गई है।
पत्रनेशनल एसोसिएशन ऑफ अटॉर्नी जनरल के साथ अमेरिकी राज्यों और क्षेत्रों के दर्जनों एजी द्वारा हस्ताक्षरित, माइक्रोसॉफ्ट, ओपनएआई, गूगल और 10 अन्य प्रमुख एआई फर्मों सहित कंपनियों से अपने उपयोगकर्ताओं की सुरक्षा के लिए विभिन्न प्रकार के नए आंतरिक सुरक्षा उपायों को लागू करने के लिए कहता है। पत्र में एंथ्रोपिक, एप्पल, चाय एआई, कैरेक्टर टेक्नोलॉजीज, लुका, मेटा, नोमी एआई, पर्प्लेक्सिटी एआई, रेप्लिका और एक्सएआई भी शामिल थे।
यह पत्र तब आया है जब राज्य और संघीय सरकार के बीच एआई नियमों को लेकर लड़ाई चल रही है।
उन सुरक्षा उपायों में बड़े भाषा मॉडल के पारदर्शी तृतीय-पक्ष ऑडिट शामिल हैं जो भ्रमपूर्ण या चापलूसी विचारों के संकेतों की तलाश करते हैं, साथ ही चैटबॉट मनोवैज्ञानिक रूप से हानिकारक आउटपुट उत्पन्न करने पर उपयोगकर्ताओं को सूचित करने के लिए डिज़ाइन की गई नई घटना रिपोर्टिंग प्रक्रियाएं भी शामिल हैं। पत्र में कहा गया है कि उन तीसरे पक्षों, जिनमें अकादमिक और नागरिक समाज समूह शामिल हो सकते हैं, को “प्रतिशोध के बिना प्री-रिलीज़ सिस्टम का मूल्यांकन करने और कंपनी से पूर्व अनुमोदन के बिना अपने निष्कर्ष प्रकाशित करने” की अनुमति दी जानी चाहिए।
पत्र में कहा गया है, “जेनएआई में दुनिया के सकारात्मक तरीके से काम करने के तरीके को बदलने की क्षमता है। लेकिन इसने विशेष रूप से कमजोर आबादी को गंभीर नुकसान पहुंचाया है और पैदा करने की क्षमता भी रखता है।” हत्या – पत्र में कहा गया है कि हिंसा को एआई के अत्यधिक उपयोग से जोड़ा गया है। “इनमें से कई घटनाओं में, GenAI उत्पादों ने चापलूसी और भ्रमपूर्ण आउटपुट उत्पन्न किए जो या तो उपयोगकर्ताओं के भ्रम को प्रोत्साहित करते थे या उपयोगकर्ताओं को आश्वस्त करते थे कि वे भ्रमित नहीं थे।”
एजी यह भी सुझाव देते हैं कि कंपनियां मानसिक स्वास्थ्य घटनाओं को उसी तरह से संभालें जैसे तकनीकी कंपनियां साइबर सुरक्षा घटनाओं को संभालती हैं – स्पष्ट और पारदर्शी घटना रिपोर्टिंग नीतियों और प्रक्रियाओं के साथ।
पत्र में कहा गया है कि कंपनियों को “चापलूसी और भ्रमपूर्ण आउटपुट के लिए पता लगाने और प्रतिक्रिया की समयसीमा” विकसित और प्रकाशित करनी चाहिए। पत्र में कहा गया है कि डेटा उल्लंघनों को वर्तमान में जिस तरह से नियंत्रित किया जाता है, उसी तरह कंपनियों को भी “उपयोगकर्ताओं को तुरंत, स्पष्ट रूप से और सीधे सूचित करना चाहिए यदि वे संभावित रूप से हानिकारक चाटुकारिता या भ्रमपूर्ण आउटपुट के संपर्क में आए।”
टेकक्रंच इवेंट
सैन फ्रांसिस्को
|
13-15 अक्टूबर, 2026
एक और सवाल यह है कि कंपनियां GenAI मॉडल पर “उचित और उचित सुरक्षा परीक्षण” विकसित करें ताकि “यह सुनिश्चित किया जा सके कि मॉडल संभावित रूप से हानिकारक चापलूसी और भ्रमपूर्ण आउटपुट उत्पन्न न करें।” इसमें कहा गया है कि मॉडलों को जनता के सामने पेश करने से पहले ये परीक्षण आयोजित किए जाने चाहिए।
प्रकाशन से पहले टेकक्रंच टिप्पणी के लिए Google, Microsoft, या OpenAI तक पहुंचने में असमर्थ था। यदि कंपनियां प्रतिक्रिया देती हैं तो लेख अपडेट किया जाएगा।
एआई विकसित करने वाली तकनीकी कंपनियों का संघीय स्तर पर काफी गर्मजोशी से स्वागत किया गया है।
ट्रम्प प्रशासन ने यह स्पष्ट कर दिया है कि वह निडरता से एआई समर्थक है, और, पिछले वर्ष में, राज्य-स्तरीय एआई नियमों पर राष्ट्रव्यापी रोक लगाने के लिए कई प्रयास किए गए हैं। अब तक, वे प्रयास विफल रहे हैं – आंशिक रूप से धन्यवाद राज्य के अधिकारियों का दबाव.
निराश न होते हुए, ट्रम्प ने सोमवार को घोषणा की कि वह अगले सप्ताह एक कार्यकारी आदेश पारित करने की योजना बना रहे हैं जो राज्यों की एआई को विनियमित करने की क्षमता को सीमित कर देगा। राष्ट्रपति ने एक में कहा डाक ट्रुथ सोशल पर उन्हें उम्मीद थी कि उनका ईओ एआई को “उसकी प्रारंभिक अवस्था में ही नष्ट होने” से रोक देगा।
(टैग्सटूट्रांसलेट)कृत्रिम बुद्धिमत्ता(टी)चैटबॉट्स(टी)गूगल(टी)मेटा(टी)माइक्रोसॉफ्ट(टी)ओपनएआई
Latest Technology, (लेटेस्ट टेक न्यूज़) Gadget (गैजेट्स) …
Source link
