ai technology deep fake rashmika mandanna social media Sakal
सप्तरंग

सत्य-असत्याशी मन केले ग्वाही

दक्षिणेची सध्याची लोकप्रिय अभिनेत्री रश्मिका मंदाना हिची प्रतिमा वापरून तयार केलेल्या व्हिडिओवरून गेल्या आठवड्यात प्रचंड टीका झाली

सम्राट फडणीस samrat.phadnis@esakal.com

दक्षिणेची सध्याची लोकप्रिय अभिनेत्री रश्मिका मंदाना हिची प्रतिमा वापरून तयार केलेल्या व्हिडिओवरून गेल्या आठवड्यात प्रचंड टीका झाली. झारा पटेल नावाच्या भारतीय वंशाच्या अमेरिकी महिलेचा व्हिडिओ आणि रश्मिकाचा चेहरा असा हा प्रकार. टीका होण्याचं कारण होतं, हा व्हिडिओ रश्मिकाचाच आहे, असं लाखो चाहते गृहीत धरून तो पाहत होते.

त्याच वेळी बातमी फुटली की, हा व्हिडिओ खोटा आहे. चाहत्यांची ही फसवणूक होती. रश्मिकाची ही फसवणूक होती. झारा यांचीदेखील फसवणूक झाली होती. कुणीतरी केलेली ‘गंमत’, भविष्यात काय वाढून ठेवलं आहे, याची चुणूक दाखवत होती.

रश्मिका आणि झारा यांच्या छायाचित्रात आणि व्हिडिओत इतकं बेमालूम मिश्रण केलं गेलं होतं की, व्हिडिओ पाहणाऱ्याला कळूच शकणार नाही. अशा स्वरूपाचा व्हिडिओ तयार करण्यासाठीचं तंत्रज्ञान मोबाईलच्या स्क्रीनवर उपलब्ध झालं आहे.

ज्यानं कुणी हा व्हिडिओ तयार केला असेल त्या व्यक्तीला तंत्रज्ञानातलं काही शिकावं लागलं असेल अशीही काही शक्यता नाही. बरं, हे सारं कृत्य गैर आहे आणि अशा स्वरूपाचे खोटे व्हिडिओ, ऑडिओ किंवा छायाचित्र तयार केलं तर तीन वर्षं कारावास भोगावा लागू शकतो, याबद्दलची माहितीही संबंधित व्यक्तीला असेल असं वाटत नाही.

व्हिडिओंची सरमिसळ

रश्मिकाचा व्हिडिओ म्हणजे डीपफेक. याबद्दल २०१९ मध्ये सर्वाधिक बोललं गेलं. डीपफेक ही गंमत किंवा संकट ठरेल, असे अंदाज वर्तवले गेले. सन २०२० चं हे सर्वात महत्त्वाचं अॅप्लिकेशन ठरेल असं मानलं गेलं. त्याच वर्षी जगाला कोरोनानं ग्रासलं आणि डीपफेकचा विषय मागं पडला. प्रत्यक्षात तंत्रज्ञानात प्रगती होत राहिली आणि २०२१ पासून डीपफेक मोबाईलवर दिसू लागलं. डीपफेक हे काही स्वतंत्र तंत्रज्ञान नाही.

मशिन लर्निंग आणि आर्टिफिशिअल इंटेलिजन्स (एआय) तंत्रज्ञानाचं हे एक बायप्रॉडक्ट आहे. गेल्या सहा महिन्यांपासून मोबाईलवर अॅपस्वरूपात उपलब्ध होत असलेली डीपफेक ही ‘एआय’चा अधिकाधिक वापर करत आहेत.

‘एआय’ तंत्रज्ञानातल्या विकासाचा सारा लाभ डीपफेकमध्येही वापरला जात आहे. त्यामुळे, रश्मिका आणि झारा यांच्यात सरमिसळ करून तयार केला गेलेला व्हिडिओ ओळखणं अत्यंत कठीण होत आहे.

ॲल्गरिदम पुरे

डीपफेकसाठी मशिन लर्निंग वापरलं जातं. स्पेशल इफेक्ट्स हे तंत्रज्ञान चित्रपटांसाठी विकसित झालं, त्याला आता शतकभराचा काळ लोटला आहे. स्पेशल इफेक्ट्स ते व्हिज्युअल इफेक्ट्स हे रूपांतरण या काळात झालं. व्हिज्युअल इफेक्टची अत्यंत सुधारित आवृत्ती म्हणजे डीपफेक.

व्हिज्युअल इफेक्टमध्ये एखाद्या कलाकाराचा व्हिडिओ तरुणपणीच्या किंवा म्हातारपणीच्या व्हिडिओत बेमालूम मिसळता आला. कपड्यांची ठेवण, दृश्याची पार्श्वभूमी बदलता आली. शारीरिक ठेवणीनुसार व्हिडिओ मिळवून त्यामध्येही मिश्रण करता आलं.

या साऱ्यामागं मानवी हात काम करत होते. डीपफेकमध्ये मानवी हातांची गरज नाही. वर्षानुवर्षं जमवलेल्या डेटामधून ॲल्गरिदम तयार झाले आहेत. त्यांचा वापर करून कोणताही व्हिडिओ, छायाचित्र परस्परांमध्ये शब्दशः एका क्लिकवर मिसळणं शक्य आहे.

भीती आहे ती इथं

गंमत म्हणून वापरलं जात असलेलं डीपफेक कलाक्षेत्रात प्रयोगांसाठीचं उत्तम साधन ठरू शकलं असतं. चित्रपटासारख्या कलामाध्यमात या अॅप्लिकेशनचा वापर अधिक सजगपणे करता आला असता. तसा तो होतोही आहे; तथापि, अशा वापरकर्त्यांची मर्यादित संख्या आणि वाढत्या संख्येतले गंमतखोर यांच्यात काही ताळमेळ नाही.

परिणामी, मनोरंजनासाठीचं डीपफेक भीतीदायक आणि डोकेदुखी बनण्याच्या दिशेनं वाटचाल करत आहे. एखाद्या व्यक्तीचा आवाज कुठल्याही व्हिडिओचा भाग बनवता येणं अशक्य राहिलेलं नाही.

रश्मिकासारख्या व्हिडिओत फक्त चेहरा बदलला; आवाजही बदलणं सहज शक्य झालं आहे. ऑडिओ आणि व्हिडिओ यांचं परस्परांमध्ये बिनचूक मिश्रण करून सत्यतेच्या जवळ जाणारा नवाच प्रसंग डीपफेक निर्माण करू शकतं. हे सारं करण्यासाठी मोबाईलचा स्क्रीन चार-सहा वेळा क्लिक करावा लागतो. भीती आहे ती इथं आहे.

सामाजिक स्वास्थ्याला धोका

गंमत म्हणून चाललेला हा खेळ राजकारणात सर्रास वापरला जाऊ शकतो. सामाजिक स्वास्थ्य बिघडवण्यासाठी वापरात येऊ शकतो. ईशान्य भारतातल्या विद्यार्थ्यांवर नऊ वर्षांपूर्वी बंगळुरूमध्ये हल्ले झाले. त्यानंतरच्या काही दिवसांत अशा स्वरूपाचे अनेक व्हिडिओ समोर आले, जे बंगळुरूमधले नव्हते आणि विद्यार्थीही भारतीय नव्हते. तरीही समाजातल्या एका घटकाचा या व्हिडिओंवर विश्वास बसला.

आज डीपफेक वापरून भारतातल्या कुठल्याही भागातले खोटे व्हिडिओ सत्य वाटावेत अशा पद्धतीनं निर्माण करणं डीपफेकमुळे जमू शकतं. जाती-धर्मांमध्ये तणाव वाढवणं, त्यांना हिंसक बनवणं यासाठी डीपफेक वापरून ऑडिओ-व्हिडिओ तयार केले जाऊ शकतात. त्याची सुरुवातही झाली आहे. येत्या काळात ते वाढत जाऊ शकतात.

कौटुंबिक पातळीवर आव्हान

सामाजिक स्वास्थ्याच्या पुढं जाऊन कौटुंबिक पातळीवरही डीपफेकचा सामना करावा लागेल असं आजचं वास्तव आहे. नात्यातल्या व्यक्तीचा व्हिडिओ-ऑडिओ डीपफेक वापरून तयार केला गेल्याच्या घटनांना कुटुंब म्हणून सामोरं जावं लागण्याचे प्रकार घडू शकतात. अगदी घटस्फोटाच्या प्रकरणांमध्येही डीपफेक वापरलं जाऊ शकतं.

कायद्यांना नवं आव्हान त्याद्वारे मिळू शकतं. अशा परिस्थितीत ‘जे डोळ्यांनी दिसतं ते सत्य’ हा परंपरागत संस्कार आता सुधारित स्वरूपात आणावा लागेल. ‘जे स्क्रीनवर डोळ्यांनी दिसतं ते सत्य असल्याचं मानू नका आणि पुनःपुन्हा तपासा, माहिती घ्या’, असा हा नवा संस्कार आहे.

माध्यमसाक्षरता गरजेची

येऊ घातलेल्या प्रश्नावरचं सर्वोत्तम उत्तर सत्याबद्दलच्या सर्वंकष आकलनात आहे. ‘सत्य’, ‘प्रमाण’ हे शब्द डीपफेकपुढं फिके आहेत. सत्य ठरवण्याचे पारंपरिक निकष बदलावे लागतील. प्रमाण ठरवण्याची परिमाणं बदलावी लागतील. तंत्रज्ञानाचं परिमाण वापरावं लागेल. त्यासाठी माध्यमसाक्षरता आवश्यक ठरेल.

डीपफेकचा वापर जसजसा वाढत जाईल, तसतसे सत्य शोधण्याच्या समाजाच्या पद्धतीतही बदल होत जातील. डीपफेक शोधण्याचं तंत्रज्ञान किचकट आणि आजच्या घडीला सर्वसामान्यांच्या वापराबाहेर आहे. सत्य शोधावं लागतंच; तथापि येत्या काळात ते शोधण्यासाठी अधिक परिश्रम घ्यावे लागतील.

अमेरिकेत गेल्या दोन वर्षांत डीपफेकबद्दल खूप चर्चा झाली. संशोधनपर अहवाल आले. त्या साऱ्यांचा सारांश ‘माध्यमसाक्षरता’ हाच होता. ‘माहिती’ घेऊन तुमच्या समोर येणाऱ्या घटकांचा पूर्वेतिहास हा साक्षरतेचा महत्त्वाचा भाग असेल. डीपफेकसारख्या नव्या गोष्टींबद्दल सरकार, नागरी संघटना, तज्ज्ञ, संशोधक यांनी सातत्यानं नव्या घडामोडींवर नागरिकांना सजग करणं हा आव्हानाला सामोरं जाण्याचा भाग असेल.

नागरिकांना एका ठिकाणी सर्व प्रकारची पूरक माहिती मिळण्याची व्यवस्था देशपातळीवर उभी करावी लागेल. अशा व्यवस्थेत डीपफेकबद्दल माहिती असेलच; शिवाय, कोणत्या गोष्टी असत्य आहेत याबद्दलची ताजी माहितीही आवश्यक असेल. सत्याच्या शोधात एखाद-दुसऱ्याला नव्हे तर, प्रत्येकालाच उतरावं लागेल हा नवा धडा डीपफेकनं दिला आहे. जगद्गुरू संत तुकाराममहाराज यांचा अभंग आहे :

‘सत्य-असत्याशी मन केले ग्वाही। मानियले नाही बहुमता...।।’

कुणी सांगतंय म्हणून सत्य मानू नका; ते पडताळून पाहा, असा आजचा अर्थ. डीपफेकला सामोरं जाताना हाच अभंग रस्ता दाखवणारा आहे.

सकाळ+ चे सदस्य व्हा

ब्रेक घ्या, डोकं चालवा, कोडे सोडवा!

शॉपिंगसाठी 'सकाळ प्राईम डील्स'च्या भन्नाट ऑफर्स पाहण्यासाठी क्लिक करा.

Read latest Marathi news, Watch Live Streaming on Esakal and Maharashtra News. Breaking news from India, Pune, Mumbai. Get the Politics, Entertainment, Sports, Lifestyle, Jobs, and Education updates. And Live taja batmya on Esakal Mobile App. Download the Esakal Marathi news Channel app for Android and IOS.

Heavy Rain : मराठवाड्यात अतिवृष्टीचे थैमान; नांदेड, लातूर जिल्ह्यांत कहर; सात जिल्ह्यांतील १३० मंडलांना दणका

ED Notice : ‘ED’चे मोठे पाऊल!, इंटरपोलकडून पहिल्यांदाच पर्पल नोटीस जारी

Vani Accident : टॅक्टर ट्रॉलीस कारची धडक; १३ महिलांसह १४ जखमी

Ganesh Naik: अनधिकृत बांधकामांवर कठोर कारवाई करा, गणेश नाईक यांचे आदेश

यंदाच्या विसर्जन मिरवणुका होणार डीजेमुक्त! पोलिस आयुक्त कारवाईबाबत सक्त, ‘डीजे’वाले वरमले; डीजेविरोधातील असंतोषाला वाट, दर तासाला ३०० सोलापूरकरांचे मिस कॉल

SCROLL FOR NEXT