Jump to content
View in the app

A better way to browse. Learn more.

கருத்துக்களம்

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

‘பாலியல் துன்புறுத்தல்’: ஆப்பிள் உருவாக்கிய வைபரேஷன்!

Featured Replies

  • கருத்துக்கள உறவுகள்

‘பாலியல் துன்புறுத்தல்’: ஆப்பிள் உருவாக்கிய வைபரேஷன்!

9.jpg

ஆப்பிள் வழங்கிவரும் இலவச ஸ்டோரேஜ் சேவையான ஐக்ளவுட்(icloud)இல் ஆப்பிள் டிவைஸ்களைப் பயன்படுத்தும் யூசர்களால் சேமிக்கப்படும் படங்களை, ஸ்கேன் செய்கிறோம் என அந்த நிறுவனத்தின் பிரைவசி குழு நிர்வாகி வெளியிட்ட தகவல் ஆப்பிள் பயனாளர்களிடையே பலவிதமான ரியாக்‌ஷனை உருவாக்கியிருக்கிறது.

லாஸ் வெகாஸில் நடைபெற்ற CES 2020 டெக் திருவிழாவில் பயனாளர்களின் பிரைவசி குறித்த விவாதத்தில் கலந்துகொண்டு பேசினார் ஆப்பிள் பிரைவசி குழு நிர்வாகியான ஜேன் ஹோர்வத். ஆப்பிளின் பிரைவசி நடவடிக்கைகள் குறித்து அவர் பேசியபோது, “நாங்கள் சில தொழில்நுட்பங்களைப் பயன்படுத்தி ‘குழந்தைகள் மீதான பாலியல் துன்புறுத்தல்கள்’ தடுப்பில் ஈடுபட்டுவருகிறோம். உதாரணத்துக்கு, ஆப்பிளின் ஐக்ளவுட் சேவையில் பதிவேற்றப்படும் படங்கள் அனைத்தையும் ஸ்கேன் செய்து, அவற்றில் எந்த குழந்தைகளும் பாலியல் துன்புறுத்தலுக்கு ஆளாக்கப்படவில்லை என்பதை உறுதி செய்கிறோம்” என்று கூறினார். இது பல விதமான விவாதங்களை ஆப்பிள் பயனாளர்களிடையே ஏற்படுத்தியிருக்கிறது.

 

2019ஆம் ஆண்டில் ஆப்பிள் தனது பிரைவசி பாலிசியை அப்டேட் செய்தது. அதன்படி, சமூகத்தை பாதிக்கும் பல குற்ற நடவடிக்கைகளுக்கு ஆப்பிள் பொறுப்பாக விரும்பவில்லை என்பதைத் தெரிவித்து, எங்களின் சேவையைப் பயன்படுத்த வேண்டுமென்றால் சில கட்டுப்பாடுகளுக்கு உட்பட வேண்டும் என்பதையும் குறிப்பிட்டிருந்தது. அதில் ஒன்றுதான் ‘ஐக்ளவுட்’ ஸ்டோரேஜில் அப்லோடு செய்யப்படும் படங்களை மெஷின் லெர்னிங் (Machine Learning) மூலம் ஸ்கேன் செய்வது.

ஃபேஸ்புக், ட்விட்டர் மற்றும் கூகுள் போன்ற நிறுவனங்களும் மெஷின் லெர்னிங் உதவியுடன் படங்களை ஸ்கேன் செய்கின்றன. ஆனால், அவற்றைப் போல வெளிப்படையாக ஆப்பிள் இதுவரை அறிவித்ததில்லை அல்லது இதுவொரு முக்கியமான பிரச்சினையாக பலரும் கவனிக்கவில்லை.

 

‘சில தொழில்நுட்பங்களைப் பயன்படுத்துகிறோம்’ என்றுதான் ஆப்பிள் கூறியிருக்கிறதே தவிர, எந்த மாதிரியான தொழில்நுட்பம் என சொல்ல மறுத்துவிட்டது. மற்ற நிறுவனங்கள் ‘PhotoDNA’ என்ற தொழில்நுட்பத்தின் மூலம் இந்த மாதிரியான படங்களை ஸ்கேன் செய்து கண்டுபிடிக்கின்றன.

அது என்ன PhotoDNA?

உலகிலுள்ள எல்லா உயிர்களுக்கும் தனித்தனியான DNA குறியீடுகள் இருப்பதுபோல, இணைய உலகம் மற்றும் பொது உலகத்தில் கண்டெடுக்கப்படும் குழந்தைகளுக்கெதிரான பாலியல் துன்புறுத்தல் ஏற்பட்ட படங்களைத் தொகுத்து, ஒவ்வொரு படத்துக்கும் தனித்தனி DNAக்களை உருவாக்குவது PhotoDNA நிறுவனத்தின் பணி. குழந்தைகளுக்கெதிரான பாலியல் துன்புறுத்தலாகப் பதிவு செய்யப்பட்ட படங்களுக்கென தனி அடையாள எண்ணை உருவாக்கி, அதை தனது சர்வரில் சேமித்து வைத்துக்கொள்கிறது PhotoDNA. இந்த நிறுவனத்தின் சேவையைப் பயன்படுத்தும் கூகுள், ஃபேஸ்புக், ட்விட்டர் போன்ற ஊடகங்களில் ஒவ்வொரு படம் பதிவேற்றப்படும்போதும், அவற்றை ஸ்கேன் செய்து ஒரு DNA குறியீட்டை உருவாக்கி, அதை PhotoDNA சர்வரில் இருக்கும் DNA குறியீடுகளுடன் இயந்திர அறிவு ஒப்பிட்டுப் பார்க்கும். ஒருவேளை இரண்டு குறியீடுகளும் ஒரே மாதிரி இருந்தால், அந்தப் படத்தை ஐக்ளவுடில் சேமித்து வைத்தவர் குற்றம் செய்தவராகக் கருதப்படுவார். அவர் மீது நடவடிக்கை எடுக்க PhotoDNA அறிவுறுத்தும்.

நல்லா இருக்கே, இதுல என்ன பிரச்சினை?

‘நல்லவன் கண்ணுக்குத் தான் கடவுள் தெரிவார்’ என்று சொல்வதைப் போல, குழந்தைகளுக்கு எதிரான பாலியல் துன்புறுத்தலில் ஈடுபடாதவர்கள் ஆப்பிள் மற்றும் இதர நிறுவனங்களின் இந்த முயற்சியை ஆதரிக்கலாமே என்ற ஒரு கருத்தும் முன்வைக்கப்படுகிறது. இதுபோன்ற மெஷின் லெர்னிங் சேவையின் மூலம், உலகத்தின் ஏதோ ஒரு மூலையில் ஒரு குழந்தை காப்பாற்றப்படும் எனும்போது இதனை மகிழ்ச்சியாக அனுமதிக்கலாம். அந்த வகையில் ஸ்மார்ட்போனில் இருக்கும் படங்களைக்கூட எடுத்து ஸ்கேன் செய்துகொள்ளச் சொல்லலாம். ஆனால், இப்படி ஸ்கேன் செய்து உருவாக்கும் குறியீடுள்ள படங்களில், குழந்தைகளுக்கெதிரான பாலியல் துன்புறுத்தல்களுக்கான வாய்ப்பு இல்லாத பட்சத்தில், அந்தக் குறியீட்டினை என்ன செய்வார்கள் என்று சொல்லாமலேயே ஸ்கேன் மட்டும் செய்வோம் என்று கூறுவதுதான் பலரிடமும் அசாதாரண உணர்வை ஏற்படுத்தியிருக்கிறது.

ஒருவேளை அப்படி இருக்குமோ?

உதாரணத்துக்கு, தனது காதலியுடன் எடுத்த அந்தரங்கமான படத்தை ஐக்ளவுடில் ஓர் இளைஞர் சேமித்து வைக்கிறார் என்று வைத்துக்கொள்வோம். இப்போது PhotoDNA இதை ஸ்கேன் செய்து சேமித்து வைத்துக்கொள்ளும். இந்த PhotoDNA குறியீட்டை யாராவது ஒரு ஹேக்கர் திருடி, அந்தக் குறியீடுகளைப் பயன்படுத்தி அதே படத்தை மீண்டும் மீள் உருவாக்கம் செய்து இணையத்தில் பதிவு செய்துவிட்டால் என்ன செய்வது?

பெரிய தொழிலதிபர் ஒருவர், தனது வங்கிக் கணக்குத் தகவல்களை போட்டோ எடுத்து ஐக்ளவுடில் சேமித்து வைத்திருந்ததை, ஹேக்கர் ஒருவரோ அல்லது PhotoDNA நிறுவனத்தில் பணியாற்றும் யாரோ ஒருவரோ திருட்டுத்தனமாக எடுத்து மீள் உருவாக்கம் செய்து பணத்தைத் திருடிவிட்டால் என்ன செய்வது?

 

மேற்கண்ட சூழல்களைப் போல, பல ரகசியமான தகவல்களைப் பாதுகாப்பதற்காகவே ஐக்ளவுட், கூகுள் டிரைவ் போன்ற சேவைகள் பயன்படுத்தப்படுகின்றன. அவற்றை ஸ்கேன் செய்து, யாராவது அதைத் திருடிவிட்டால் கஷ்டத்தில் நிற்கப்போவது பயனாளர்கள் தானே என்கிற கேள்வி நியாயமானது.

PhotoDNA கூறும் நியாயம்

பல பில்லியன்கள் செலவில் நிறுவனங்களை நடத்துபவர்களுக்கு மேற்கண்ட பிரச்சினைகளின் ஆழம் என்னவென்று தெரியும். எனவே, இதை அனைவருக்கும் சரிசமமாக மாற்றும் முயற்சியில்தான் மீள் உருவாக்கம் செய்ய முடியாத PhotoDNA அடையாள எண்களை உருவாக்க முடிவெடுத்தனர் PhotoDNA நிறுவனத்தினர்.

PhotoDNA நிறுவன தகவல்களின்படி “ஸ்கேன் செய்யப்படும் படங்களின் சூழல் மற்றும் அம்சங்களை ஸ்கேன் செய்து அதற்கான அடையாள எண் உருவாக்கப்பட்டதும், அந்தப் படங்களை உடனடியாக அவர்களது சர்வரிலிருந்து அழித்துவிடுவதாகக் கொள்கை முடிவு எடுத்திருக்கிறோம்” என்று கூறுகின்றனர். “உலகில் உள்ள அனைவரையும் கண்காணித்து குற்றவாளிகளைக் கண்டுபிடிக்கும் எங்களுக்குள் எந்தக் குற்றவாளியும் நுழைந்துவிடக் கூடாது” என இதற்கான நியாயம் வரையறுக்கப்பட்டுள்ளது.

 

குழந்தைகளுக்கு எதிரான பாலியல் துன்புறுத்தல் நடைபெற்றதாக உறுதி செய்யப்பட்ட படத்தை ஒருமுறை ஸ்கேன் செய்து, அதன் DNA எண்ணை சர்வரில் சேமித்ததும் உடனடியாக அந்தப் படத்தை அழித்துவிடுகின்றனர். கூகுள் டிரைவ் போன்றவற்றில் அப்லோடு செய்யப்படும் படங்கள் ஒவ்வொன்றுக்கும் தனி DNA எண்ணை உருவாக்கி உடனடியாக அதை சர்வரில் உள்ள DNA எண்களுடன் ஒப்பிடுகிறது மெஷின் லெர்னிங். எந்தப் படமும் ஒத்துப்போகாத நேரத்தில் அந்தப் படம் மற்றும் அதன் தகவல்களை உடனடியாக அழித்துவிடுவதாகக் குறிப்பிட்டிருக்கின்றனர்.

யாரைத்தான் நம்புவதோ..!

நம்பிக்கையை அடிப்படையாகக்கொண்டு செயல்படும் இந்த விஷயத்தில், படங்களின் தகவல்களை அழித்துவிடுவோம் என்று நிறுவனங்கள் குறிப்பிடுவதில்தான் சிக்கல். வீட்டிலுள்ள மனைவி, மக்களைவிட அதிக நேரம் செலவிடும் ஃபேஸ்புக் தகவல்களைத் திருடிக் கொடுத்து ஆதாயம் தேடிக்கொண்ட வழக்கு இப்போது வரையிலும் நடைபெற்றுக் கொண்டிருக்கிறது. திடீரென ஹேக்கர்கள் தோன்றி, அனைத்து தகவல்களையும் திருடிவிடுகின்றனர். அதிலிருந்து மீண்டு வருவதற்குள்ளாகவே சில நிறுவனங்கள் அழிந்துபோகின்றன. இப்படிப்பட்ட சூழலில் ‘நாங்க இருக்கோம்’ என இந்த நிறுவனங்கள் சொல்வதை ஏற்றுக்கொள்ள மக்கள் தயாராக இல்லை. அதேசமயம், மெஷின் லெர்னிங் இப்போதுதான் பருவ வயதை அடைந்திருக்கிறது. 2000 முதல் 2020 வரை செயற்கை நுண்ணறிவு மூலம் இயங்கும் மெஷின் லெர்னிங் நடைமுறைக்கு சிறுமிகளின் குரல்களையே பதிவு செய்து வந்திருந்த உலகம் இப்போதுதான் ஒரு பருவப் பெண்ணின் குரலமைப்பைக் கொடுத்திருக்கிறது. இவற்றை உருவாக்கும் நிறுவனங்களுக்கே இல்லாத நம்பிக்கை மக்களுக்கு எப்படி வரும் என்பதுதான் முக்கியமான கேள்வி. மற்றபடி, என் போட்டோக்களை ஸ்கேன் செய்யக் கூடாது என்று யாரும் சொல்ல மாட்டார்கள். மக்களின் பயத்தைக் காரணம் காட்டி சம்பாதிப்பதை நிறுத்திவிட்டு, அவர்களிடமிருக்கும் பயத்தைப் போக்கினால்தான் நாம் எதிர்பார்க்கும் குற்றமற்ற சமுதாயத்தைக் கட்டமைக்க முடியும். இப்படியொரு வசதி இருப்பதையே ஆப்பிள் நிறுவனம் இப்போதுதான் கூறியிருக்கிறது. மேலே குறிப்பிட்ட தெளிவுகளையெல்லாம் எப்போது சொல்வார்கள்?

- சிவா
 

https://minnambalam.com/public/2020/01/12/9/apple-scan-photos-in-icloud-to-prevent-child-abuse

 

Archived

This topic is now archived and is closed to further replies.

Important Information

By using this site, you agree to our Terms of Use.

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.