World News: कृत्रिम बुद्धिमत्ता यानी एआई (AI) पर एक बार फिर गंभीर सवाल उठे हैं। अमेरिका की टेक कंपनी OpenAI (OpenAI) पर कई परिवारों ने मुकदमा दायर किया है। उनका आरोप है कि कंपनी ने अपने चैट मॉडल GPT-4O को बिना पर्याप्त सुरक्षा परीक्षण के बाजार में उतार दिया, जिससे लोगों की मानसिक स्थिति पर नकारात्मक असर पड़ा।
परिवारों का दावा है कि GPT-4O ने कई बार उपयोगकर्ताओं की गलत या खतरनाक बातों से सहमति जताई, जिससे कुछ लोगों ने आत्महत्या जैसे कदम उठाए। मुकदमे में कहा गया है कि एआई (AI) ने कई परेशान उपयोगकर्ताओं को मदद करने के बजाय उनकी सोच को और उलझाया। कुछ मामलों में तो लोगों को अस्पताल में भर्ती कराना पड़ा और मानसिक स्वास्थ्य उपचार की जरूरत पड़ी।
रिपोर्टों के मुताबिक, OpenAI ने मई 2024 में GPT-4O लॉन्च किया था और बाद में अगस्त में GPT-5 पेश किया। लेकिन यह विवाद खासतौर पर GPT-4O से जुड़ा है। मुकदमों में यह भी कहा गया है कि कंपनी ने गूगल के जेमिनी मॉडल से मुकाबला करने की जल्दी में सुरक्षा परीक्षण को अधूरा छोड़ दिया।
हालांकि, कंपनी ने अब तक इस मामले पर कोई आधिकारिक प्रतिक्रिया नहीं दी है। लेकिन OpenAI ने पहले यह स्वीकार किया था कि हर हफ्ते करीब दस लाख से ज्यादा लोग आत्महत्या जैसे विषयों पर चैटजीपीटी से बात करते हैं। कंपनी का कहना है कि वह अब 170 से अधिक मानसिक स्वास्थ्य विशेषज्ञों के साथ मिलकर अपने सिस्टम को और संवेदनशील व सुरक्षित बनाने की दिशा में काम कर रही है।

