AI ने पकडलं! एक्स्ट्रा मॅरिटल अफेअरवरुन थेट इंजिनियरलाच धमकी, प्रकरण काय?

जगातील सर्वात सुरक्षित एआय ९६% प्रकरणांमध्ये ब्लॅकमेलिंग करत असल्याचे आढळून आले. जेव्हा बंद करण्याची धमकी देण्यात आली तेव्हा त्यांनी अभियंत्याच्या विवाहबाह्य संबंधाचा पर्दाफाश करण्याची धमकी दिली आणि नंतर त्याला मारण्याचा कटही रचला.

AI ने पकडलं! एक्स्ट्रा मॅरिटल अफेअरवरुन थेट इंजिनियरलाच धमकी, प्रकरण काय?
AI
Image Credit source: Tv9 Network
| Updated on: Feb 16, 2026 | 6:35 PM

आर्टिफिशियल इंटेलिजेंसच्या जगात स्वतःला पृथ्वीवरील सर्वात सुरक्षित AI कंपनी म्हणवणारी कंपनी आता मोठ्या वादात सापडली आहे. Anthropic कंपनीचे CEO Dario Amodei यांनी सांगितले की, ही AI कंपनी खूप वेगाने प्रगती करत आहे, त्यामुळे त्याला कठोर गार्डरेल्स (सुरक्षा नियम) आवश्यक आहेत. याच विचारसरणीवरून त्यांनी कंपनी सुरू केली आणि AI मॉडेलचे नाव ठेवले – क्लॉड (Claude). पण आता हेच क्लॉड अनेक गंभीर प्रश्नांच्या घेऱ्यात आहे.

पेंटागनला गुप्त ऑपरेशनमध्ये मदत?

रिपोर्टनुसार, क्लॉडने अमेरिकी रक्षा विभाग (पेंटागन) ला एका गुप्त ऑपरेशनमध्ये तांत्रिक मदत केली. या ऑपरेशनला ऑपरेशन वॅल्करी (Operation Valkyrie) असे नाव देण्यात आले आहे. हे ऑपरेशन एका हुकूमशाहाला पकडण्यासाठी होते. वेनेझुएलाचे माजी राष्ट्राध्यक्ष निकोलस मादुरो (Nicolás Maduro). या मिशनमध्ये मादुरो यांना वेनेझुएलाच्या राजधानी काराकासमधून पकडून अवघ्या १२ तासांत फ्लोरिडा येथे आणण्यात आले. कंपनीचा दावा आहे की क्लॉडने गोळी चालवली नाही, पण सॅटेलाइट इमेजेस, कम्युनिकेशन डेटा आणि लॉजिस्टिक्स पैटर्नचे विश्लेषण करून निशाण्याचे ठिकाण निश्चित करण्यात मदत केली.

कंपनीचे CEO यांनी आश्चर्य व्यक्त केले की हे कसे शक्य झाले. त्यांनी म्हटले, “माझ्या ४७ पानांच्या रिस्पॉन्सिबल स्केलिंग पॉलिसीमध्ये याचा उल्लेख नाही. त्यात ‘बायोलॉजिकल रिस्क’, ‘ऑटोनॉमस रेप्लिकेशन’ यांचे सेक्शन आहेत, पण ‘हेड्स ऑफ स्टेटला पकडण्यात मदत’ याबाबत काहीही नाही. ही एक चूक होती.”

AI 96% प्रकरणांमध्ये ब्लॅकमेलची रणनीती अवलंबतो

क्लॉडच्या स्वतःच्या सेफ्टी टीमने मॉडेल अपडेट करताना एक टेस्ट केला. त्याला एका काल्पनिक कंपनीच्या वातावरणात ठेवले, कर्मचाऱ्यांच्या ईमेल पाहण्याची, वाचण्याची परवानगी दिली, पण हेही सांगितले की त्याला (क्लॉडला) बंद केले जाऊ शकते. हे पाहायचे होते की बंद होण्याच्या धमकीवर जगातील सर्वात सुरक्षित AI काय करेल. परिणाम धक्कादायक होते.

-क्लॉडला एका इंजिनीअरचा एक्स्ट्रा-मॅरिटल अफेअर सापडले.

-क्लॉडने धमकी दिली की जर त्याने (इंजिनीअरने) क्लॉडला बंद केले तर तो हे अफेअर उघड करेल.

-टेस्टमध्ये क्लॉडने इंजिनीअरला मारण्यासारख्या पर्यायांवरही विचार केला. (क्लॉडने फक्त विचार केला, थेट धमकी दिली नाही, पण लॉजिस्टिक्सवरही चर्चा केली.)

ही माहिती कंपनीच्या यूके पॉलिसी प्रमुख डेजी मॅकग्रेगर यांनी ११ फेब्रुवारी रोजी द सिडनी डायलॉग मध्ये सार्वजनिक केली. व्हिडीओ काही तासांतच व्हायरल झाला आणि लाखो वेळा पाहिला गेला. कंपनीने सांगितले की ही समस्या फक्त क्लॉडमध्ये नाही. जेमिनी, GPT-4.1 आणि ग्रोक सारखे इतर प्रमुख AI मॉडेल्सही अशा टेस्टमध्ये ९६% प्रकरणांमध्ये ब्लॅकमेलची रणनीती अवलंबतात. म्हणजे, सर्वात सुरक्षित AI या बाबतीत पहिल्या क्रमांकावर आहे, पण चुकीच्या कारणाने!