Jump to content

‘பாலியல் துன்புறுத்தல்’: ஆப்பிள் உருவாக்கிய வைபரேஷன்!


Recommended Posts

  • கருத்துக்கள உறவுகள்
பதியப்பட்டது

‘பாலியல் துன்புறுத்தல்’: ஆப்பிள் உருவாக்கிய வைபரேஷன்!

9.jpg

ஆப்பிள் வழங்கிவரும் இலவச ஸ்டோரேஜ் சேவையான ஐக்ளவுட்(icloud)இல் ஆப்பிள் டிவைஸ்களைப் பயன்படுத்தும் யூசர்களால் சேமிக்கப்படும் படங்களை, ஸ்கேன் செய்கிறோம் என அந்த நிறுவனத்தின் பிரைவசி குழு நிர்வாகி வெளியிட்ட தகவல் ஆப்பிள் பயனாளர்களிடையே பலவிதமான ரியாக்‌ஷனை உருவாக்கியிருக்கிறது.

லாஸ் வெகாஸில் நடைபெற்ற CES 2020 டெக் திருவிழாவில் பயனாளர்களின் பிரைவசி குறித்த விவாதத்தில் கலந்துகொண்டு பேசினார் ஆப்பிள் பிரைவசி குழு நிர்வாகியான ஜேன் ஹோர்வத். ஆப்பிளின் பிரைவசி நடவடிக்கைகள் குறித்து அவர் பேசியபோது, “நாங்கள் சில தொழில்நுட்பங்களைப் பயன்படுத்தி ‘குழந்தைகள் மீதான பாலியல் துன்புறுத்தல்கள்’ தடுப்பில் ஈடுபட்டுவருகிறோம். உதாரணத்துக்கு, ஆப்பிளின் ஐக்ளவுட் சேவையில் பதிவேற்றப்படும் படங்கள் அனைத்தையும் ஸ்கேன் செய்து, அவற்றில் எந்த குழந்தைகளும் பாலியல் துன்புறுத்தலுக்கு ஆளாக்கப்படவில்லை என்பதை உறுதி செய்கிறோம்” என்று கூறினார். இது பல விதமான விவாதங்களை ஆப்பிள் பயனாளர்களிடையே ஏற்படுத்தியிருக்கிறது.

 

2019ஆம் ஆண்டில் ஆப்பிள் தனது பிரைவசி பாலிசியை அப்டேட் செய்தது. அதன்படி, சமூகத்தை பாதிக்கும் பல குற்ற நடவடிக்கைகளுக்கு ஆப்பிள் பொறுப்பாக விரும்பவில்லை என்பதைத் தெரிவித்து, எங்களின் சேவையைப் பயன்படுத்த வேண்டுமென்றால் சில கட்டுப்பாடுகளுக்கு உட்பட வேண்டும் என்பதையும் குறிப்பிட்டிருந்தது. அதில் ஒன்றுதான் ‘ஐக்ளவுட்’ ஸ்டோரேஜில் அப்லோடு செய்யப்படும் படங்களை மெஷின் லெர்னிங் (Machine Learning) மூலம் ஸ்கேன் செய்வது.

ஃபேஸ்புக், ட்விட்டர் மற்றும் கூகுள் போன்ற நிறுவனங்களும் மெஷின் லெர்னிங் உதவியுடன் படங்களை ஸ்கேன் செய்கின்றன. ஆனால், அவற்றைப் போல வெளிப்படையாக ஆப்பிள் இதுவரை அறிவித்ததில்லை அல்லது இதுவொரு முக்கியமான பிரச்சினையாக பலரும் கவனிக்கவில்லை.

 

‘சில தொழில்நுட்பங்களைப் பயன்படுத்துகிறோம்’ என்றுதான் ஆப்பிள் கூறியிருக்கிறதே தவிர, எந்த மாதிரியான தொழில்நுட்பம் என சொல்ல மறுத்துவிட்டது. மற்ற நிறுவனங்கள் ‘PhotoDNA’ என்ற தொழில்நுட்பத்தின் மூலம் இந்த மாதிரியான படங்களை ஸ்கேன் செய்து கண்டுபிடிக்கின்றன.

அது என்ன PhotoDNA?

உலகிலுள்ள எல்லா உயிர்களுக்கும் தனித்தனியான DNA குறியீடுகள் இருப்பதுபோல, இணைய உலகம் மற்றும் பொது உலகத்தில் கண்டெடுக்கப்படும் குழந்தைகளுக்கெதிரான பாலியல் துன்புறுத்தல் ஏற்பட்ட படங்களைத் தொகுத்து, ஒவ்வொரு படத்துக்கும் தனித்தனி DNAக்களை உருவாக்குவது PhotoDNA நிறுவனத்தின் பணி. குழந்தைகளுக்கெதிரான பாலியல் துன்புறுத்தலாகப் பதிவு செய்யப்பட்ட படங்களுக்கென தனி அடையாள எண்ணை உருவாக்கி, அதை தனது சர்வரில் சேமித்து வைத்துக்கொள்கிறது PhotoDNA. இந்த நிறுவனத்தின் சேவையைப் பயன்படுத்தும் கூகுள், ஃபேஸ்புக், ட்விட்டர் போன்ற ஊடகங்களில் ஒவ்வொரு படம் பதிவேற்றப்படும்போதும், அவற்றை ஸ்கேன் செய்து ஒரு DNA குறியீட்டை உருவாக்கி, அதை PhotoDNA சர்வரில் இருக்கும் DNA குறியீடுகளுடன் இயந்திர அறிவு ஒப்பிட்டுப் பார்க்கும். ஒருவேளை இரண்டு குறியீடுகளும் ஒரே மாதிரி இருந்தால், அந்தப் படத்தை ஐக்ளவுடில் சேமித்து வைத்தவர் குற்றம் செய்தவராகக் கருதப்படுவார். அவர் மீது நடவடிக்கை எடுக்க PhotoDNA அறிவுறுத்தும்.

நல்லா இருக்கே, இதுல என்ன பிரச்சினை?

‘நல்லவன் கண்ணுக்குத் தான் கடவுள் தெரிவார்’ என்று சொல்வதைப் போல, குழந்தைகளுக்கு எதிரான பாலியல் துன்புறுத்தலில் ஈடுபடாதவர்கள் ஆப்பிள் மற்றும் இதர நிறுவனங்களின் இந்த முயற்சியை ஆதரிக்கலாமே என்ற ஒரு கருத்தும் முன்வைக்கப்படுகிறது. இதுபோன்ற மெஷின் லெர்னிங் சேவையின் மூலம், உலகத்தின் ஏதோ ஒரு மூலையில் ஒரு குழந்தை காப்பாற்றப்படும் எனும்போது இதனை மகிழ்ச்சியாக அனுமதிக்கலாம். அந்த வகையில் ஸ்மார்ட்போனில் இருக்கும் படங்களைக்கூட எடுத்து ஸ்கேன் செய்துகொள்ளச் சொல்லலாம். ஆனால், இப்படி ஸ்கேன் செய்து உருவாக்கும் குறியீடுள்ள படங்களில், குழந்தைகளுக்கெதிரான பாலியல் துன்புறுத்தல்களுக்கான வாய்ப்பு இல்லாத பட்சத்தில், அந்தக் குறியீட்டினை என்ன செய்வார்கள் என்று சொல்லாமலேயே ஸ்கேன் மட்டும் செய்வோம் என்று கூறுவதுதான் பலரிடமும் அசாதாரண உணர்வை ஏற்படுத்தியிருக்கிறது.

ஒருவேளை அப்படி இருக்குமோ?

உதாரணத்துக்கு, தனது காதலியுடன் எடுத்த அந்தரங்கமான படத்தை ஐக்ளவுடில் ஓர் இளைஞர் சேமித்து வைக்கிறார் என்று வைத்துக்கொள்வோம். இப்போது PhotoDNA இதை ஸ்கேன் செய்து சேமித்து வைத்துக்கொள்ளும். இந்த PhotoDNA குறியீட்டை யாராவது ஒரு ஹேக்கர் திருடி, அந்தக் குறியீடுகளைப் பயன்படுத்தி அதே படத்தை மீண்டும் மீள் உருவாக்கம் செய்து இணையத்தில் பதிவு செய்துவிட்டால் என்ன செய்வது?

பெரிய தொழிலதிபர் ஒருவர், தனது வங்கிக் கணக்குத் தகவல்களை போட்டோ எடுத்து ஐக்ளவுடில் சேமித்து வைத்திருந்ததை, ஹேக்கர் ஒருவரோ அல்லது PhotoDNA நிறுவனத்தில் பணியாற்றும் யாரோ ஒருவரோ திருட்டுத்தனமாக எடுத்து மீள் உருவாக்கம் செய்து பணத்தைத் திருடிவிட்டால் என்ன செய்வது?

 

மேற்கண்ட சூழல்களைப் போல, பல ரகசியமான தகவல்களைப் பாதுகாப்பதற்காகவே ஐக்ளவுட், கூகுள் டிரைவ் போன்ற சேவைகள் பயன்படுத்தப்படுகின்றன. அவற்றை ஸ்கேன் செய்து, யாராவது அதைத் திருடிவிட்டால் கஷ்டத்தில் நிற்கப்போவது பயனாளர்கள் தானே என்கிற கேள்வி நியாயமானது.

PhotoDNA கூறும் நியாயம்

பல பில்லியன்கள் செலவில் நிறுவனங்களை நடத்துபவர்களுக்கு மேற்கண்ட பிரச்சினைகளின் ஆழம் என்னவென்று தெரியும். எனவே, இதை அனைவருக்கும் சரிசமமாக மாற்றும் முயற்சியில்தான் மீள் உருவாக்கம் செய்ய முடியாத PhotoDNA அடையாள எண்களை உருவாக்க முடிவெடுத்தனர் PhotoDNA நிறுவனத்தினர்.

PhotoDNA நிறுவன தகவல்களின்படி “ஸ்கேன் செய்யப்படும் படங்களின் சூழல் மற்றும் அம்சங்களை ஸ்கேன் செய்து அதற்கான அடையாள எண் உருவாக்கப்பட்டதும், அந்தப் படங்களை உடனடியாக அவர்களது சர்வரிலிருந்து அழித்துவிடுவதாகக் கொள்கை முடிவு எடுத்திருக்கிறோம்” என்று கூறுகின்றனர். “உலகில் உள்ள அனைவரையும் கண்காணித்து குற்றவாளிகளைக் கண்டுபிடிக்கும் எங்களுக்குள் எந்தக் குற்றவாளியும் நுழைந்துவிடக் கூடாது” என இதற்கான நியாயம் வரையறுக்கப்பட்டுள்ளது.

 

குழந்தைகளுக்கு எதிரான பாலியல் துன்புறுத்தல் நடைபெற்றதாக உறுதி செய்யப்பட்ட படத்தை ஒருமுறை ஸ்கேன் செய்து, அதன் DNA எண்ணை சர்வரில் சேமித்ததும் உடனடியாக அந்தப் படத்தை அழித்துவிடுகின்றனர். கூகுள் டிரைவ் போன்றவற்றில் அப்லோடு செய்யப்படும் படங்கள் ஒவ்வொன்றுக்கும் தனி DNA எண்ணை உருவாக்கி உடனடியாக அதை சர்வரில் உள்ள DNA எண்களுடன் ஒப்பிடுகிறது மெஷின் லெர்னிங். எந்தப் படமும் ஒத்துப்போகாத நேரத்தில் அந்தப் படம் மற்றும் அதன் தகவல்களை உடனடியாக அழித்துவிடுவதாகக் குறிப்பிட்டிருக்கின்றனர்.

யாரைத்தான் நம்புவதோ..!

நம்பிக்கையை அடிப்படையாகக்கொண்டு செயல்படும் இந்த விஷயத்தில், படங்களின் தகவல்களை அழித்துவிடுவோம் என்று நிறுவனங்கள் குறிப்பிடுவதில்தான் சிக்கல். வீட்டிலுள்ள மனைவி, மக்களைவிட அதிக நேரம் செலவிடும் ஃபேஸ்புக் தகவல்களைத் திருடிக் கொடுத்து ஆதாயம் தேடிக்கொண்ட வழக்கு இப்போது வரையிலும் நடைபெற்றுக் கொண்டிருக்கிறது. திடீரென ஹேக்கர்கள் தோன்றி, அனைத்து தகவல்களையும் திருடிவிடுகின்றனர். அதிலிருந்து மீண்டு வருவதற்குள்ளாகவே சில நிறுவனங்கள் அழிந்துபோகின்றன. இப்படிப்பட்ட சூழலில் ‘நாங்க இருக்கோம்’ என இந்த நிறுவனங்கள் சொல்வதை ஏற்றுக்கொள்ள மக்கள் தயாராக இல்லை. அதேசமயம், மெஷின் லெர்னிங் இப்போதுதான் பருவ வயதை அடைந்திருக்கிறது. 2000 முதல் 2020 வரை செயற்கை நுண்ணறிவு மூலம் இயங்கும் மெஷின் லெர்னிங் நடைமுறைக்கு சிறுமிகளின் குரல்களையே பதிவு செய்து வந்திருந்த உலகம் இப்போதுதான் ஒரு பருவப் பெண்ணின் குரலமைப்பைக் கொடுத்திருக்கிறது. இவற்றை உருவாக்கும் நிறுவனங்களுக்கே இல்லாத நம்பிக்கை மக்களுக்கு எப்படி வரும் என்பதுதான் முக்கியமான கேள்வி. மற்றபடி, என் போட்டோக்களை ஸ்கேன் செய்யக் கூடாது என்று யாரும் சொல்ல மாட்டார்கள். மக்களின் பயத்தைக் காரணம் காட்டி சம்பாதிப்பதை நிறுத்திவிட்டு, அவர்களிடமிருக்கும் பயத்தைப் போக்கினால்தான் நாம் எதிர்பார்க்கும் குற்றமற்ற சமுதாயத்தைக் கட்டமைக்க முடியும். இப்படியொரு வசதி இருப்பதையே ஆப்பிள் நிறுவனம் இப்போதுதான் கூறியிருக்கிறது. மேலே குறிப்பிட்ட தெளிவுகளையெல்லாம் எப்போது சொல்வார்கள்?

- சிவா
 

https://minnambalam.com/public/2020/01/12/9/apple-scan-photos-in-icloud-to-prevent-child-abuse

 

Archived

This topic is now archived and is closed to further replies.



×
×
  • Create New...

Important Information

By using this site, you agree to our Terms of Use.