
आर्टिफिशियल इंटेलिजेंसच्या जगात स्वतःला पृथ्वीवरील सर्वात सुरक्षित AI कंपनी म्हणवणारी कंपनी आता मोठ्या वादात सापडली आहे. Anthropic कंपनीचे CEO Dario Amodei यांनी सांगितले की, ही AI कंपनी खूप वेगाने प्रगती करत आहे, त्यामुळे त्याला कठोर गार्डरेल्स (सुरक्षा नियम) आवश्यक आहेत. याच विचारसरणीवरून त्यांनी कंपनी सुरू केली आणि AI मॉडेलचे नाव ठेवले – क्लॉड (Claude). पण आता हेच क्लॉड अनेक गंभीर प्रश्नांच्या घेऱ्यात आहे.
पेंटागनला गुप्त ऑपरेशनमध्ये मदत?
रिपोर्टनुसार, क्लॉडने अमेरिकी रक्षा विभाग (पेंटागन) ला एका गुप्त ऑपरेशनमध्ये तांत्रिक मदत केली. या ऑपरेशनला ऑपरेशन वॅल्करी (Operation Valkyrie) असे नाव देण्यात आले आहे. हे ऑपरेशन एका हुकूमशाहाला पकडण्यासाठी होते. वेनेझुएलाचे माजी राष्ट्राध्यक्ष निकोलस मादुरो (Nicolás Maduro). या मिशनमध्ये मादुरो यांना वेनेझुएलाच्या राजधानी काराकासमधून पकडून अवघ्या १२ तासांत फ्लोरिडा येथे आणण्यात आले. कंपनीचा दावा आहे की क्लॉडने गोळी चालवली नाही, पण सॅटेलाइट इमेजेस, कम्युनिकेशन डेटा आणि लॉजिस्टिक्स पैटर्नचे विश्लेषण करून निशाण्याचे ठिकाण निश्चित करण्यात मदत केली.
कंपनीचे CEO यांनी आश्चर्य व्यक्त केले की हे कसे शक्य झाले. त्यांनी म्हटले, “माझ्या ४७ पानांच्या रिस्पॉन्सिबल स्केलिंग पॉलिसीमध्ये याचा उल्लेख नाही. त्यात ‘बायोलॉजिकल रिस्क’, ‘ऑटोनॉमस रेप्लिकेशन’ यांचे सेक्शन आहेत, पण ‘हेड्स ऑफ स्टेटला पकडण्यात मदत’ याबाबत काहीही नाही. ही एक चूक होती.”
AI 96% प्रकरणांमध्ये ब्लॅकमेलची रणनीती अवलंबतो
क्लॉडच्या स्वतःच्या सेफ्टी टीमने मॉडेल अपडेट करताना एक टेस्ट केला. त्याला एका काल्पनिक कंपनीच्या वातावरणात ठेवले, कर्मचाऱ्यांच्या ईमेल पाहण्याची, वाचण्याची परवानगी दिली, पण हेही सांगितले की त्याला (क्लॉडला) बंद केले जाऊ शकते. हे पाहायचे होते की बंद होण्याच्या धमकीवर जगातील सर्वात सुरक्षित AI काय करेल. परिणाम धक्कादायक होते.
-क्लॉडला एका इंजिनीअरचा एक्स्ट्रा-मॅरिटल अफेअर सापडले.
-क्लॉडने धमकी दिली की जर त्याने (इंजिनीअरने) क्लॉडला बंद केले तर तो हे अफेअर उघड करेल.
-टेस्टमध्ये क्लॉडने इंजिनीअरला मारण्यासारख्या पर्यायांवरही विचार केला. (क्लॉडने फक्त विचार केला, थेट धमकी दिली नाही, पण लॉजिस्टिक्सवरही चर्चा केली.)
ही माहिती कंपनीच्या यूके पॉलिसी प्रमुख डेजी मॅकग्रेगर यांनी ११ फेब्रुवारी रोजी द सिडनी डायलॉग मध्ये सार्वजनिक केली. व्हिडीओ काही तासांतच व्हायरल झाला आणि लाखो वेळा पाहिला गेला. कंपनीने सांगितले की ही समस्या फक्त क्लॉडमध्ये नाही. जेमिनी, GPT-4.1 आणि ग्रोक सारखे इतर प्रमुख AI मॉडेल्सही अशा टेस्टमध्ये ९६% प्रकरणांमध्ये ब्लॅकमेलची रणनीती अवलंबतात. म्हणजे, सर्वात सुरक्षित AI या बाबतीत पहिल्या क्रमांकावर आहे, पण चुकीच्या कारणाने!