வேட்டையாடுபவர்களின் துஷ்பிரயோகத்திலிருந்து குழந்தைகளைப் பாதுகாக்க, ஆகஸ்ட் 2021 இல், உங்கள் iCloud உள்ளடக்கத்தை சிறுவர் பாலியல் துஷ்பிரயோகப் பொருட்களுக்கான (CSAM) ஸ்கேன் செய்யும் திட்டத்தை ஆப்பிள் அறிவித்தது.
iCloud புகைப்படங்களில் புதிய CSAM கண்டறிதல் அம்சத்தை அறிமுகப்படுத்த நிறுவனம் திட்டமிட்டுள்ளது, இது பயனர் தனியுரிமையைப் பராமரிக்கும் போது அத்தகைய உள்ளடக்கத்தை ஸ்கேன் செய்து பொருந்தும் படங்களை Apple க்கு தெரிவிக்கும்.
அன்றைய வீடியோவை உருவாக்கவும்
இருப்பினும், புதிய அம்சம் கலவையான எதிர்வினைகளை சந்தித்தது. ஆரம்ப அறிவிப்பிலிருந்து ஒரு வருடத்திற்கும் மேலாக, CSAM க்காக iCloud புகைப்படங்களை ஸ்கேன் செய்யும் திட்டத்தை ஆப்பிள் அதிகாரப்பூர்வமாக கைவிடுகிறது.
சிறுவர் துஷ்பிரயோகத்திற்கான iCloud ஐ ஸ்கேன் செய்யும் திட்டத்தை ஆப்பிள் கைவிடுகிறது
ஒரு அறிக்கையின்படி வயர்டு , குழந்தைகளை துஷ்பிரயோகம் செய்யும் உள்ளடக்கத்திற்காக உங்கள் iCloud ஐ ஸ்கேன் செய்யும் திட்டத்திலிருந்து Apple விலகிச் செல்கிறது. குழந்தைகள் பாதுகாப்பு அமைப்புகளால் அடையாளம் காணப்பட்ட அறியப்பட்ட CSAM படங்களுடன் பொருந்தக்கூடியவற்றைக் கண்டறிய iCloud இல் சேமிக்கப்பட்ட புகைப்படங்களை இந்த கருவி ஸ்கேன் செய்யும். அமெரிக்கா உட்பட பெரும்பாலான அதிகார வரம்புகளில் CSAM படங்களை வைத்திருப்பது சட்டவிரோதமானது என்பதால் அது அந்தப் படங்களைப் புகாரளிக்கலாம்.
iCloud புகைப்படங்களை ஸ்கேன் செய்யும் திட்டத்தை ஆப்பிள் ஏன் ரத்து செய்தது
2021 ஆம் ஆண்டின் ஆரம்ப அறிவிப்புக்குப் பிறகு, ஆப்பிள் நிறுவனம் உலகளாவிய டிஜிட்டல் தனியுரிமை மற்றும் பாதுகாப்பிற்காக வாதிடும் வாடிக்கையாளர்கள், குழுக்கள் மற்றும் தனிநபர்களிடமிருந்து பின்னடைவை எதிர்கொண்டது. ஐபோன்கள் பொதுவாக ஆண்ட்ராய்டு சாதனங்களை விட அதிக பாதுகாப்பை வழங்குகின்றன , மற்றும் பலர் இதை ஒரு படி பின்வாங்குவதாக கருதினர். குழந்தை பாதுகாப்பு நிறுவனங்களுக்கு இது ஒரு வெற்றியாக இருந்தாலும், அதே மாதத்தின் பிற்பகுதியில் 90 க்கும் மேற்பட்ட கொள்கை குழுக்கள் ஆப்பிள் நிறுவனத்திற்கு ஒரு திறந்த கடிதம் எழுதி, திட்டத்தை ரத்து செய்யும்படி நிறுவனத்திடம் தெரிவித்தன.
நெட்ஃபிக்ஸ் தொடர்ந்து பார்ப்பதிலிருந்து எதையாவது அகற்றுவது எப்படி
கருவி உத்தேசித்துள்ள போது கடிதம் வாதிட்டது துஷ்பிரயோகத்தில் இருந்து குழந்தைகளை பாதுகாக்க , இது பேச்சு சுதந்திரத்தை தணிக்கை செய்வதற்கும் பயனரின் தனியுரிமை மற்றும் பாதுகாப்பை அச்சுறுத்துவதற்கும் பயன்படுத்தப்படலாம். பெருகிவரும் அழுத்தத்தின் காரணமாக, கருத்துக்களைச் சேகரிப்பதற்கும் அம்சத்தில் தேவையான மாற்றங்களைச் செய்வதற்கும் ஆப்பிள் அதன் வெளியீட்டுத் திட்டங்களை நிறுத்தியது. இருப்பினும், iCloud புகைப்படங்களை ஸ்கேன் செய்வதற்கான ஆப்பிளின் திட்டத்திற்கு பின்னூட்டம் சாதகமாக இல்லை, எனவே நிறுவனம் அதிகாரப்பூர்வமாக திட்டங்களை கைவிடுகிறது.
WIRED க்கு ஒரு அறிக்கையில், நிறுவனம் கூறியது:
'iCloud புகைப்படங்களுக்கான CSAM கண்டறிதல் கருவியை நாங்கள் முன்மொழியவில்லை... இளைஞர்களே, அவர்களின் தனியுரிமைக்கான உரிமையைப் பாதுகாத்து, குழந்தைகளுக்கும் நம் அனைவருக்கும் இணையத்தை பாதுகாப்பான இடமாக மாற்றவும்.'
குழந்தைகளைப் பாதுகாக்க ஆப்பிள் நிறுவனத்தின் புதிய திட்டம்
ஆகஸ்ட் 2021 இல் அறிவிக்கப்பட்டு அதே ஆண்டு டிசம்பரில் தொடங்கப்பட்ட தகவல் தொடர்பு பாதுகாப்பு அம்சங்களை மேம்படுத்துவதற்கான தனது முயற்சிகளை ஆப்பிள் திருப்பி அனுப்புகிறது.
தகவல்தொடர்பு பாதுகாப்பு விருப்பமானது மற்றும் iMessage இல் வெளிப்படையான பாலியல் படங்களை அனுப்புதல் மற்றும் பெறுதல் ஆகிய இரண்டிலிருந்தும் குழந்தைகளைப் பாதுகாக்க பெற்றோர் மற்றும் பாதுகாவலர்களால் பயன்படுத்தப்படலாம். இந்த அம்சம் அத்தகைய புகைப்படங்களை தானாகவே மங்கலாக்குகிறது, மேலும் அதில் உள்ள ஆபத்துகள் குறித்து குழந்தைக்கு எச்சரிக்கப்படும். ஆப்பிள் சாதனங்களில் CSAM ஐத் தேட முயற்சித்தால் அது எச்சரிக்கும்.
ஃபோட்டோஷாப்பில் தூரிகையை சுழற்றுவது எப்படி
CSAM-கண்டறிதல் கருவியைத் தொடங்குவதற்கான திட்டங்கள் ரத்துசெய்யப்பட்ட நிலையில், இந்த அம்சத்தை மேலும் மேம்படுத்தி மேலும் தகவல்தொடர்பு பயன்பாடுகளுக்கு விரிவுபடுத்த நிறுவனம் எதிர்பார்க்கிறது.