Jump to content
View in the app

A better way to browse. Learn more.

கருத்துக்களம்

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

ராஷ்மிகா மந்தனாவின் 'டீப்ஃபேக்' வைரல் வீடியோ: போலி காணொளிகளை கண்டறியும் வழிகள்

Featured Replies

  • கருத்துக்கள உறவுகள்
ராஷ்மிகா மந்தனா

பட மூலாதாரம்,GETTY IMAGES

படக்குறிப்பு,

ராஷ்மிகா மந்தனா குறித்து வெளியான ‘டீப் ஃபேக்’ வீடியோ, பெண்களிடையே அச்சத்தை ஏற்படுத்தியுள்ளது.

2 மணி நேரங்களுக்கு முன்னர்

நடிகை ராஷ்மிகா மந்தனா குறித்து தற்போது ஏராளமான செய்திகள் வெளியாகின்றன. 'டீப் ஃபேக்' தொழில்நுட்பத்துடன் வெளியான ஒரு வைரல் வீடியோதான் அவர் செய்திகளில் அதிகமாக இடம்பெறக் காரணமாக மாறியுள்ளது. இந்நிலையில், 'டீப் ந்ஃபேக்' தொழில்நுட்பம் குறித்துப் புதிய விவாதமும் தொடங்கியுள்ளது.

'புஷ்பா' போன்ற வெற்றிப் படங்களின் மூலம் முத்திரை பதித்த ராஷ்மிகா மந்தனாவை வேறொரு பெண் மூலம் இந்த 'டீப் ஃபேக்' வீடியோ காட்டுவது குறித்த விவாதம் தற்போது ஊடகங்களில் அதிக எண்ணிக்கையில் பகிரப்படுகிறது.

இந்த வீடியோவில் காணப்படும் பெண்ணை டீப் ஃபேக் தொழில்நுட்பத்தில் ராஷ்மிகா மந்தனாவாக காட்ட முயற்சி மேற்கொள்ளப்பட்டது.

இதற்கு 'மிகுந்த வருத்தம்' தெரிவித்த ராஷ்மிகா, தன்னைப் போல் வேறு யாரும் பாதிக்கப்படாமல் இருக்க விரைவில் இந்த பிரச்னைக்குத் தீர்வு காணுமாறு வேண்டுகோள் விடுத்துள்ளார்.

"உண்மையாக, இதுபோன்ற பிரச்னை எதுவும், எனக்கு மட்டுமல்ல, நம் அனைவருக்கும் மிகந்த பயத்தை அளித்துள்ளது," என்று ராஷ்மிகா தனது எக்ஸ் சமூக ஊடக பக்கத்தில் எழுதியுள்ளார்.

இன்று தொழில்நுட்பம் தவறாகப் பயன்படுத்தப்படும் விதம் தனக்கு மட்டுமின்றி பலருக்கும் பெரும் இழப்பை ஏற்படுத்தும் என்றும் அதில் அவர் மேலும் கூறியுள்ளார்.

ராஷ்மிகாவின் சமூக ஊடக பதிவில், “இன்று எனது பாதுகாவலராகவும் எனக்கு ஆதரவாகவும் இருக்கும் என் குடும்பத்தினர், நண்பர்கள் மற்றும் நலம் விரும்பிகளுக்கு ஒரு பெண்ணாகவும், நடிகையாகவும் நன்றிகளைத் தெரிவித்துக்கொள்கிறேன்,” என எழுதியுள்ளார்.

“ஆனால் நான் பள்ளியிலோ அல்லது கல்லூரியிலோ படிக்கும்போது இதுபோன்ற சம்பவம் நடந்திருந்தால், நான் அதை எப்படி எதிர்கொண்டிருப்பேன் என்று என்னால் கற்பனைகூடச் செய்து பார்க்க முடியாது.”

இந்த வீடியோவை மேற்கோள் காட்டி நடிகர் அமிதாப் பச்சன், இந்த விவகாரத்தில் சட்டப்படி நடவடிக்கை எடுக்க வேண்டும் என்று வலியுறுத்தியுள்ளார்.

 
ராஷ்மிகா மந்தனா

பட மூலாதாரம்,GETTY IMAGES

படக்குறிப்பு,

‘டீப் ஃபேக்’ தொழில்நுட்பத்தில் பல்வேறு துறைகளைச் சேர்ந்த பிரபலங்கள் குறித்த போலி வீடியோக்கள் சமூக ஊடகங்களில் பகிரப்பட்டு வருகின்றன.

அதே நேரத்தில், சமூக ஊடகங்கள் தங்கள் தளங்களில் தவறான தகவல்கள் பகிரப்படாமல் இருப்பதை உறுதி செய்ய வேண்டும் என்று மத்திய அமைச்சர் ராஜீவ் சந்திரசேகர் கூறியுள்ளார்.

இந்த வைரலான வீடியோ டீப் ஃபேக் தொழில்நுட்பம் மூலம் உருவாக்கப்பட்டுள்ளது. இதைத் தகவல் சரிபார்ப்பு இணையதளமான ஆல்ட் நியூஸ் (Alt News) வெளியிட்டுள்ளது.

ஆல்ட் நியூஸ் (Alt News) உடன் தொடர்புடைய அபிஷேக், தனது எக்ஸ் பக்கத்தில், "இந்த வீடியோ டீப் ஃபேக் தொழில்நுட்பத்தைப் பயன்படுத்தி உருவாக்கப்பட்டுள்ளது என்பதுடன், வீடியோவில் காணப்பட்ட பெண் ராஷ்மிகா மந்தனா அல்ல," என்று கூறினார்.

‘டீப் ஃபேக்’ தொழில்நுட்பம் என்றால் என்ன?

டீப்ஃபேக் என்பது வீடியோக்கள், படங்கள் மற்றும் ஆடியோக்களை செயற்கை நுண்ணறிவைப் பயன்படுத்திப் பதிவு செய்யும் ஒரு தொழில்நுட்பம்.

இத்தொழில்நுட்பத்தின் மூலம், மற்றொருவரின் புகைப்படம் அல்லது வீடியோவை அதில் வேறொருவரின் முகத்தைப் பயன்படுத்தி மாற்றலாம்.

எளிமையான மொழியில், இந்த நுட்பத்தில் செயற்கை நுண்ணறிவைப் பயன்படுத்தி ஒரு போலி வீடியோவை உருவாக்க முடியும். இது உண்மையான வீடியோவைப் போல் தெரியும். ஆனால் அது போலியானது. இந்தக் காரணத்தினால்தான் இதற்கு ‘டீப்ஃபேக்’ எனப் பெயரிடப்பட்டுள்ளது.

இந்த ‘டீப் ஃபேக்’ என்ற சொல், ஏற்கெனவே உள்ள தகவல்களின் படி, 2017 முதல் பயன்படுத்தப்பட்டு வருகிறது. ஒரு ரெடிட் (Reddit) பயனர் ஆபாச வீடியோக்களில் முகத்தின் அடையாளத்தை மாற்ற இந்த தொழில்நுட்பத்தைப் பயன்படுத்தினார். பின்னர் ரெடிட், 'டீப்ஃபேக் ஆபாசங்களைத்' தடை செய்தது.

 
ராஷ்மிகா மந்தனா

பட மூலாதாரம்,OTHER

படக்குறிப்பு,

‘டீப்ஃபேக்’ உள்ளடக்கங்களைத் தயாரிப்பது மிகவும் சிக்கலானது என்பதால் கணினிக் கல்வியில் தேர்ச்சி பெற்றிருப்பது அவசியம்.

இந்தத் தொழில்நுட்பம் எவ்வாறு செயல்படுகிறது?

'டீப் ஃபேக்’ என்பது மிகவும் சிக்கலான தொழில்நுட்பம். இதற்கு கணினிக் கல்வியில் தேர்ச்சி பெற்றிருக்க வேண்டும்.

டீப்ஃபேக் பதிவுகள் ஒன்றுடன் ஒன்று போட்டியிடும் இரண்டு அல்காரிதம்களைப் பயன்படுத்தி உருவாக்கப்படுகின்றன. ஒன்று டிகோடர் என்றும் மற்றொன்று என்கோடர் என்றும் அழைக்கப்படுகிறது.

இதில், போலியா உள்ளடக்கத்தைத் தயாரிப்பவர் அது உண்மையானதா அல்லது போலியானதா என்பதைக் கண்டறிய டிகோடரை கேட்கிறார்.

ஒவ்வொரு முறையும் டிகோடர் உள்ளடக்கத்தை உண்மையானது அல்லது போலியானது என சரியாகக் கண்டறியும்போது, அது அந்தத் தகவலை என்கோடருக்கு அனுப்பி, தவறுகளைச் சரி செய்வதன் மூலம் அடுத்த டீப்ஃபேக் உள்ளடக்கத்தை மேம்படுத்துகிறது.

இந்த இரண்டு செயல்முறைகளையும் ஒன்றாக இணைப்பதன் மூலம் GAN எனப்படும் ஒரு உருவாக்கும் எதிரி நெட்வொர்க் உருவாக்கப்படுகிறது.

 
ராஷ்மிகா மந்தனா

பட மூலாதாரம்,MYHERITAGE

படக்குறிப்பு,

‘டீப் ஃபேக்’ தொழில் நுட்பத்தில் உருவாக்கப்படும் போலி வீடியோக்கள் கடந்த பல ஆண்டுகளாகவே உலகம் முழுவதும் பிரபலமடைந்து வருகிறது.

‘டீப் ஃபேக்’ உள்ளடக்கங்கள் எங்கே பயன்படுத்தப்படுகின்றன?

ஏற்கெனவே இருக்கும் தகவல்களின்படி, இந்தத் தொழில்நுட்பம் ஆபாசமான உள்ளடக்கத்தை உருவாக்குவதற்காகத் தான் முதன் முதலாகத் தொடங்கப்பட்டது.

இந்த டீப் ஃபேக் நுட்பம் ஆபாசத்தில் அதிகம் பயன்படுத்தப்பட்டு வருகிறது. திரைப்பட நடிகர், நடிகைகளின் முகத்தை மாற்றித் தயாரிக்கப்படும் ஆபாச உள்ளடக்கங்களை வெளியிடுவதற்காகவே செயல்படும் பிரத்யேக தளங்களில் வெளியிடப்படுகின்றன.

டீப் ட்ரேஸ் (DeepTrace) அளித்துள்ள தகவல்களின்படி, 2019இல் ஆன்லைனில் கண்டுபிடிக்கப்பட்ட 96 சதவீத டீப்ஃபேக் வீடியோக்கள் ஆபாச உள்ளடக்கத்தைக் கொண்டிருந்தன.

இது தவிர பொழுதுபோக்கிற்காகவும் இந்த தொழில்நுட்பம் பயன்படுத்தப்படுகிறது. ஏதோ நடக்கவில்லை என்று பார்வையாளர்களை நம்ப வைப்பதே இந்த டீப்ஃபேக் வீடியோக்களின் நோக்கம்.

பல்வேறு படங்களின் காட்சிகள் டீப்ஃபேக் வீடியோக்களாக பல யூடியூப் சேனல்களில் வெளியிடப்படுகின்றன. எடுத்துக்காட்டாக, 'தி ஷைனிங்' படத்தின் பிரபலமான காட்சியின் டீப்ஃபேக் வீடியோ ‘Ctrl Shift face’ யூடியூப் சேனலில் கிடைக்கிறது.

கடந்த சில ஆண்டுகளாக, இந்த தொழில்நுட்பம் ஏக்கத்தை உருவாக்கும் வீடியோக்களுக்காகப் பயன்படுத்தப்படுகிறது. இதில், இறந்த உறவினர்களின் புகைப்படங்களில் முகங்கள் அனிமேஷன் செய்யப்பட்டு, புதிய வீடியோக்கள் தயாரிக்கப்படுகின்றன.

இந்த அம்சத்தைப் பயன்படுத்தி, தொழில்நுட்பத்தின் மூலம் பலர் தங்கள் முன்னோர்கள் மற்றும் வரலாற்று பிரபலங்களை உயிருடன் வீடியோவில் காட்டுகின்றனர்.

டீப்ஃபேக் வீடியோக்கள் இப்போது அரசியலிலும் பயன்படுத்தப்படுகின்றன. தேர்தல்களில் அரசியல் கட்சிகள் டீப்ஃபேக் தொழில்நுட்பம் மூலம் ஒருவரையொருவர் அவதூறாகப் பேசுகின்றனர். யுக்ரேன் -ரஷ்யா போரின் போது டீப்ஃபேக் வீடியோக்களும் வெளியாகின என்பது குறிப்பிடத்தக்கது.

 
ராஷ்மிகா மந்தனா

பட மூலாதாரம்,GETTY IMAGES

படக்குறிப்பு,

யுக்ரேன் போர் தொடங்கிய பின் அந்தப் போர் குறித்தும் பல ‘டீப்ஃபேக்’ வீடியோக்கள் வெளியாயின.

‘டீப்ஃபேக்’ வீடியோக்களை எப்படிக் கண்டறிவது?

டீப்ஃபேக் உள்ளடக்கங்களை அடையாளம் காண, சில குறிப்பிட்ட விஷயங்களில் கவனம் செலுத்துவது மிகவும் முக்கியம்.

அந்த உள்ளடக்கத்தில் காட்டப்படும் முகத்தின் நிலை அவற்றில் முதன்மையானது. டீப்ஃபேக் தொழில்நுட்பம் பெரும்பாலும் முகம் மற்றும் கண்களின் நிலைகளைக் காண்பிக்கும் போது தோல்வியடைகிறது. கண் இமைகள் சிமிட்டுவதும் இதில் அடங்கும்.

கண்கள் மற்றும் மூக்கு ஆகியவை வேறு எங்காவது செல்வதாக நீங்கள் உணர்ந்தால் அல்லது நீண்டநேரம் ஆகியும் வீடியோவில் யாரும் சிமிட்டவில்லை என்றால், இது டீப்ஃபேக் உள்ளடக்கம் என்பதைப் புரிந்து கொள்ளுங்கள்.

டீப்ஃபேக் உள்ளடக்கத்தில் உள்ள வண்ணத்தைப் பார்ப்பதன் மூலம், புகைப்படம் அல்லது வீடியோ போலியானதா என்பதையும் கண்டறிய முடியும்.

https://www.bbc.com/tamil/articles/c8v8m9ye19ro

Archived

This topic is now archived and is closed to further replies.

Important Information

By using this site, you agree to our Terms of Use.

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.