Jump to content
  • advertisement_alt
  • advertisement_alt
  • advertisement_alt

‘பாலியல் துன்புறுத்தல்’: ஆப்பிள் உருவாக்கிய வைபரேஷன்!


Recommended Posts

  • கருத்துக்கள உறவுகள்

‘பாலியல் துன்புறுத்தல்’: ஆப்பிள் உருவாக்கிய வைபரேஷன்!

9.jpg

ஆப்பிள் வழங்கிவரும் இலவச ஸ்டோரேஜ் சேவையான ஐக்ளவுட்(icloud)இல் ஆப்பிள் டிவைஸ்களைப் பயன்படுத்தும் யூசர்களால் சேமிக்கப்படும் படங்களை, ஸ்கேன் செய்கிறோம் என அந்த நிறுவனத்தின் பிரைவசி குழு நிர்வாகி வெளியிட்ட தகவல் ஆப்பிள் பயனாளர்களிடையே பலவிதமான ரியாக்‌ஷனை உருவாக்கியிருக்கிறது.

லாஸ் வெகாஸில் நடைபெற்ற CES 2020 டெக் திருவிழாவில் பயனாளர்களின் பிரைவசி குறித்த விவாதத்தில் கலந்துகொண்டு பேசினார் ஆப்பிள் பிரைவசி குழு நிர்வாகியான ஜேன் ஹோர்வத். ஆப்பிளின் பிரைவசி நடவடிக்கைகள் குறித்து அவர் பேசியபோது, “நாங்கள் சில தொழில்நுட்பங்களைப் பயன்படுத்தி ‘குழந்தைகள் மீதான பாலியல் துன்புறுத்தல்கள்’ தடுப்பில் ஈடுபட்டுவருகிறோம். உதாரணத்துக்கு, ஆப்பிளின் ஐக்ளவுட் சேவையில் பதிவேற்றப்படும் படங்கள் அனைத்தையும் ஸ்கேன் செய்து, அவற்றில் எந்த குழந்தைகளும் பாலியல் துன்புறுத்தலுக்கு ஆளாக்கப்படவில்லை என்பதை உறுதி செய்கிறோம்” என்று கூறினார். இது பல விதமான விவாதங்களை ஆப்பிள் பயனாளர்களிடையே ஏற்படுத்தியிருக்கிறது.

 

2019ஆம் ஆண்டில் ஆப்பிள் தனது பிரைவசி பாலிசியை அப்டேட் செய்தது. அதன்படி, சமூகத்தை பாதிக்கும் பல குற்ற நடவடிக்கைகளுக்கு ஆப்பிள் பொறுப்பாக விரும்பவில்லை என்பதைத் தெரிவித்து, எங்களின் சேவையைப் பயன்படுத்த வேண்டுமென்றால் சில கட்டுப்பாடுகளுக்கு உட்பட வேண்டும் என்பதையும் குறிப்பிட்டிருந்தது. அதில் ஒன்றுதான் ‘ஐக்ளவுட்’ ஸ்டோரேஜில் அப்லோடு செய்யப்படும் படங்களை மெஷின் லெர்னிங் (Machine Learning) மூலம் ஸ்கேன் செய்வது.

ஃபேஸ்புக், ட்விட்டர் மற்றும் கூகுள் போன்ற நிறுவனங்களும் மெஷின் லெர்னிங் உதவியுடன் படங்களை ஸ்கேன் செய்கின்றன. ஆனால், அவற்றைப் போல வெளிப்படையாக ஆப்பிள் இதுவரை அறிவித்ததில்லை அல்லது இதுவொரு முக்கியமான பிரச்சினையாக பலரும் கவனிக்கவில்லை.

 

‘சில தொழில்நுட்பங்களைப் பயன்படுத்துகிறோம்’ என்றுதான் ஆப்பிள் கூறியிருக்கிறதே தவிர, எந்த மாதிரியான தொழில்நுட்பம் என சொல்ல மறுத்துவிட்டது. மற்ற நிறுவனங்கள் ‘PhotoDNA’ என்ற தொழில்நுட்பத்தின் மூலம் இந்த மாதிரியான படங்களை ஸ்கேன் செய்து கண்டுபிடிக்கின்றன.

அது என்ன PhotoDNA?

உலகிலுள்ள எல்லா உயிர்களுக்கும் தனித்தனியான DNA குறியீடுகள் இருப்பதுபோல, இணைய உலகம் மற்றும் பொது உலகத்தில் கண்டெடுக்கப்படும் குழந்தைகளுக்கெதிரான பாலியல் துன்புறுத்தல் ஏற்பட்ட படங்களைத் தொகுத்து, ஒவ்வொரு படத்துக்கும் தனித்தனி DNAக்களை உருவாக்குவது PhotoDNA நிறுவனத்தின் பணி. குழந்தைகளுக்கெதிரான பாலியல் துன்புறுத்தலாகப் பதிவு செய்யப்பட்ட படங்களுக்கென தனி அடையாள எண்ணை உருவாக்கி, அதை தனது சர்வரில் சேமித்து வைத்துக்கொள்கிறது PhotoDNA. இந்த நிறுவனத்தின் சேவையைப் பயன்படுத்தும் கூகுள், ஃபேஸ்புக், ட்விட்டர் போன்ற ஊடகங்களில் ஒவ்வொரு படம் பதிவேற்றப்படும்போதும், அவற்றை ஸ்கேன் செய்து ஒரு DNA குறியீட்டை உருவாக்கி, அதை PhotoDNA சர்வரில் இருக்கும் DNA குறியீடுகளுடன் இயந்திர அறிவு ஒப்பிட்டுப் பார்க்கும். ஒருவேளை இரண்டு குறியீடுகளும் ஒரே மாதிரி இருந்தால், அந்தப் படத்தை ஐக்ளவுடில் சேமித்து வைத்தவர் குற்றம் செய்தவராகக் கருதப்படுவார். அவர் மீது நடவடிக்கை எடுக்க PhotoDNA அறிவுறுத்தும்.

நல்லா இருக்கே, இதுல என்ன பிரச்சினை?

‘நல்லவன் கண்ணுக்குத் தான் கடவுள் தெரிவார்’ என்று சொல்வதைப் போல, குழந்தைகளுக்கு எதிரான பாலியல் துன்புறுத்தலில் ஈடுபடாதவர்கள் ஆப்பிள் மற்றும் இதர நிறுவனங்களின் இந்த முயற்சியை ஆதரிக்கலாமே என்ற ஒரு கருத்தும் முன்வைக்கப்படுகிறது. இதுபோன்ற மெஷின் லெர்னிங் சேவையின் மூலம், உலகத்தின் ஏதோ ஒரு மூலையில் ஒரு குழந்தை காப்பாற்றப்படும் எனும்போது இதனை மகிழ்ச்சியாக அனுமதிக்கலாம். அந்த வகையில் ஸ்மார்ட்போனில் இருக்கும் படங்களைக்கூட எடுத்து ஸ்கேன் செய்துகொள்ளச் சொல்லலாம். ஆனால், இப்படி ஸ்கேன் செய்து உருவாக்கும் குறியீடுள்ள படங்களில், குழந்தைகளுக்கெதிரான பாலியல் துன்புறுத்தல்களுக்கான வாய்ப்பு இல்லாத பட்சத்தில், அந்தக் குறியீட்டினை என்ன செய்வார்கள் என்று சொல்லாமலேயே ஸ்கேன் மட்டும் செய்வோம் என்று கூறுவதுதான் பலரிடமும் அசாதாரண உணர்வை ஏற்படுத்தியிருக்கிறது.

ஒருவேளை அப்படி இருக்குமோ?

உதாரணத்துக்கு, தனது காதலியுடன் எடுத்த அந்தரங்கமான படத்தை ஐக்ளவுடில் ஓர் இளைஞர் சேமித்து வைக்கிறார் என்று வைத்துக்கொள்வோம். இப்போது PhotoDNA இதை ஸ்கேன் செய்து சேமித்து வைத்துக்கொள்ளும். இந்த PhotoDNA குறியீட்டை யாராவது ஒரு ஹேக்கர் திருடி, அந்தக் குறியீடுகளைப் பயன்படுத்தி அதே படத்தை மீண்டும் மீள் உருவாக்கம் செய்து இணையத்தில் பதிவு செய்துவிட்டால் என்ன செய்வது?

பெரிய தொழிலதிபர் ஒருவர், தனது வங்கிக் கணக்குத் தகவல்களை போட்டோ எடுத்து ஐக்ளவுடில் சேமித்து வைத்திருந்ததை, ஹேக்கர் ஒருவரோ அல்லது PhotoDNA நிறுவனத்தில் பணியாற்றும் யாரோ ஒருவரோ திருட்டுத்தனமாக எடுத்து மீள் உருவாக்கம் செய்து பணத்தைத் திருடிவிட்டால் என்ன செய்வது?

 

மேற்கண்ட சூழல்களைப் போல, பல ரகசியமான தகவல்களைப் பாதுகாப்பதற்காகவே ஐக்ளவுட், கூகுள் டிரைவ் போன்ற சேவைகள் பயன்படுத்தப்படுகின்றன. அவற்றை ஸ்கேன் செய்து, யாராவது அதைத் திருடிவிட்டால் கஷ்டத்தில் நிற்கப்போவது பயனாளர்கள் தானே என்கிற கேள்வி நியாயமானது.

PhotoDNA கூறும் நியாயம்

பல பில்லியன்கள் செலவில் நிறுவனங்களை நடத்துபவர்களுக்கு மேற்கண்ட பிரச்சினைகளின் ஆழம் என்னவென்று தெரியும். எனவே, இதை அனைவருக்கும் சரிசமமாக மாற்றும் முயற்சியில்தான் மீள் உருவாக்கம் செய்ய முடியாத PhotoDNA அடையாள எண்களை உருவாக்க முடிவெடுத்தனர் PhotoDNA நிறுவனத்தினர்.

PhotoDNA நிறுவன தகவல்களின்படி “ஸ்கேன் செய்யப்படும் படங்களின் சூழல் மற்றும் அம்சங்களை ஸ்கேன் செய்து அதற்கான அடையாள எண் உருவாக்கப்பட்டதும், அந்தப் படங்களை உடனடியாக அவர்களது சர்வரிலிருந்து அழித்துவிடுவதாகக் கொள்கை முடிவு எடுத்திருக்கிறோம்” என்று கூறுகின்றனர். “உலகில் உள்ள அனைவரையும் கண்காணித்து குற்றவாளிகளைக் கண்டுபிடிக்கும் எங்களுக்குள் எந்தக் குற்றவாளியும் நுழைந்துவிடக் கூடாது” என இதற்கான நியாயம் வரையறுக்கப்பட்டுள்ளது.

 

குழந்தைகளுக்கு எதிரான பாலியல் துன்புறுத்தல் நடைபெற்றதாக உறுதி செய்யப்பட்ட படத்தை ஒருமுறை ஸ்கேன் செய்து, அதன் DNA எண்ணை சர்வரில் சேமித்ததும் உடனடியாக அந்தப் படத்தை அழித்துவிடுகின்றனர். கூகுள் டிரைவ் போன்றவற்றில் அப்லோடு செய்யப்படும் படங்கள் ஒவ்வொன்றுக்கும் தனி DNA எண்ணை உருவாக்கி உடனடியாக அதை சர்வரில் உள்ள DNA எண்களுடன் ஒப்பிடுகிறது மெஷின் லெர்னிங். எந்தப் படமும் ஒத்துப்போகாத நேரத்தில் அந்தப் படம் மற்றும் அதன் தகவல்களை உடனடியாக அழித்துவிடுவதாகக் குறிப்பிட்டிருக்கின்றனர்.

யாரைத்தான் நம்புவதோ..!

நம்பிக்கையை அடிப்படையாகக்கொண்டு செயல்படும் இந்த விஷயத்தில், படங்களின் தகவல்களை அழித்துவிடுவோம் என்று நிறுவனங்கள் குறிப்பிடுவதில்தான் சிக்கல். வீட்டிலுள்ள மனைவி, மக்களைவிட அதிக நேரம் செலவிடும் ஃபேஸ்புக் தகவல்களைத் திருடிக் கொடுத்து ஆதாயம் தேடிக்கொண்ட வழக்கு இப்போது வரையிலும் நடைபெற்றுக் கொண்டிருக்கிறது. திடீரென ஹேக்கர்கள் தோன்றி, அனைத்து தகவல்களையும் திருடிவிடுகின்றனர். அதிலிருந்து மீண்டு வருவதற்குள்ளாகவே சில நிறுவனங்கள் அழிந்துபோகின்றன. இப்படிப்பட்ட சூழலில் ‘நாங்க இருக்கோம்’ என இந்த நிறுவனங்கள் சொல்வதை ஏற்றுக்கொள்ள மக்கள் தயாராக இல்லை. அதேசமயம், மெஷின் லெர்னிங் இப்போதுதான் பருவ வயதை அடைந்திருக்கிறது. 2000 முதல் 2020 வரை செயற்கை நுண்ணறிவு மூலம் இயங்கும் மெஷின் லெர்னிங் நடைமுறைக்கு சிறுமிகளின் குரல்களையே பதிவு செய்து வந்திருந்த உலகம் இப்போதுதான் ஒரு பருவப் பெண்ணின் குரலமைப்பைக் கொடுத்திருக்கிறது. இவற்றை உருவாக்கும் நிறுவனங்களுக்கே இல்லாத நம்பிக்கை மக்களுக்கு எப்படி வரும் என்பதுதான் முக்கியமான கேள்வி. மற்றபடி, என் போட்டோக்களை ஸ்கேன் செய்யக் கூடாது என்று யாரும் சொல்ல மாட்டார்கள். மக்களின் பயத்தைக் காரணம் காட்டி சம்பாதிப்பதை நிறுத்திவிட்டு, அவர்களிடமிருக்கும் பயத்தைப் போக்கினால்தான் நாம் எதிர்பார்க்கும் குற்றமற்ற சமுதாயத்தைக் கட்டமைக்க முடியும். இப்படியொரு வசதி இருப்பதையே ஆப்பிள் நிறுவனம் இப்போதுதான் கூறியிருக்கிறது. மேலே குறிப்பிட்ட தெளிவுகளையெல்லாம் எப்போது சொல்வார்கள்?

- சிவா
 

https://minnambalam.com/public/2020/01/12/9/apple-scan-photos-in-icloud-to-prevent-child-abuse

 

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...

Important Information

By using this site, you agree to our Terms of Use.