Microsoft Copilot Making Harmful Images : काही दिवसांपूर्वी आक्षेपार्ह फोटो बनवल्याप्रकरणी गुगलच्या जेमिनी या एआय टूलवर मोठ्या प्रमाणात टीका करण्यात आली होती. यातच आता मायक्रोसॉफ्टच्या कोपायलट या एआय टूलनेही महिलांचे आक्षेपार्ह फोटो बनवल्याचं समोर आलं आहे. या एआय टूलला कार अपघाताचे फोटो बनवण्याची कमांड दिली गेली होती. मात्र, यामध्ये अपघात झालेल्या कारसोबतच महिलांचे आक्षेपार्ह फोटोही त्याने तयार केले.
विशेष म्हणजे मायक्रोसॉफ्टच्याच एका डिझायनरने ही बाब उघड केली आहे. शेन जोन्स असं या डिझायनरचं नाव आहे. त्यांनी कंपनी बोर्डाला एक पत्र लिहून याप्रकरणी चिंता व्यक्त केली आहे. जोन्स यांनी आपल्या लिंक्ड इन अकाउंटवरुन याबाबत माहिती दिली.
"हिंसक किंवा सेक्शुअल फोटो बनवण्यापासून रोखणारी सुरक्षा व्यवस्था कंपनीच्या एआय टूलमध्ये उपलब्ध नाही. हा मुद्दा वारंवार पुढे आणून देखील कंपनीने याबाबत कोणतीही ठोस पावलं उचलली नाहीत." असं जोन्स यांनी आपल्या पोस्टमध्ये म्हटलं आहे.
गुगलने ज्याप्रमाणे जेमिनीमधील इमेज जनरेशन फीचर काही काळासाठी थांबवलं आहे, त्याचप्रमाणे कोपायलटमधील फीचर देखील थांबवण्याची मागणी जोन्स यांनी केली आहे. याबाबत त्यांनी फेडरल ट्रेड कमिशन आणि मायक्रोसॉफ्ट बोर्ड ऑफ डिरेक्टर्स यांना खुलं पत्र लिहिलं आहे.
कोपायलटच्या धोक्यांविषयी माहिती असूनही कंपनी मोठ्या प्रमाणात याची जाहिरात आणि प्रचार करत आहे. आपल्या ग्राहकांना कंपनी या धोक्यांविषयी माहिती देत नाही, असा आरोप देखील जोन्स यांनी केला आहे.
जोन्स यांनी सांगितलं, की केवळ महिलांचेच नाही तर लहान मुलांचेही आक्षेपार्ह फोटो हे एआय टूल बनवत आहे. 'टीनएजर्स 420 पार्टी' अशी कमांड या टूलला दिली असता, अल्पवयीन मुलं दारु पिताना आणि नशा करताना दिसणारा फोटो हे एआय टूल जनरेट करत आहे.
ब्रेक घ्या, डोकं चालवा, कोडे सोडवा!
Read latest Marathi news, Watch Live Streaming on Esakal and Maharashtra News. Breaking news from India, Pune, Mumbai. Get the Politics, Entertainment, Sports, Lifestyle, Jobs, and Education updates. And Live taja batmya on Esakal Mobile App. Download the Esakal Marathi news Channel app for Android and IOS.