உங்கள் iCloud புகைப்படங்களை ஸ்கேன் செய்யும் திட்டத்தை ஆப்பிள் ஏன் கைவிட்டது

உங்கள் iCloud புகைப்படங்களை ஸ்கேன் செய்யும் திட்டத்தை ஆப்பிள் ஏன் கைவிட்டது
உங்களைப் போன்ற வாசகர்கள் MUO ஐ ஆதரிக்க உதவுகிறார்கள். எங்கள் தளத்தில் உள்ள இணைப்புகளைப் பயன்படுத்தி நீங்கள் வாங்கும் போது, ​​நாங்கள் ஒரு இணை கமிஷனைப் பெறலாம். மேலும் படிக்க.

வேட்டையாடுபவர்களின் துஷ்பிரயோகத்திலிருந்து குழந்தைகளைப் பாதுகாக்க, ஆகஸ்ட் 2021 இல், உங்கள் iCloud உள்ளடக்கத்தை சிறுவர் பாலியல் துஷ்பிரயோகப் பொருட்களுக்கான (CSAM) ஸ்கேன் செய்யும் திட்டத்தை ஆப்பிள் அறிவித்தது.





iCloud புகைப்படங்களில் புதிய CSAM கண்டறிதல் அம்சத்தை அறிமுகப்படுத்த நிறுவனம் திட்டமிட்டுள்ளது, இது பயனர் தனியுரிமையைப் பராமரிக்கும் போது அத்தகைய உள்ளடக்கத்தை ஸ்கேன் செய்து பொருந்தும் படங்களை Apple க்கு தெரிவிக்கும்.





அன்றைய வீடியோவை உருவாக்கவும்

இருப்பினும், புதிய அம்சம் கலவையான எதிர்வினைகளை சந்தித்தது. ஆரம்ப அறிவிப்பிலிருந்து ஒரு வருடத்திற்கும் மேலாக, CSAM க்காக iCloud புகைப்படங்களை ஸ்கேன் செய்யும் திட்டத்தை ஆப்பிள் அதிகாரப்பூர்வமாக கைவிடுகிறது.





சிறுவர் துஷ்பிரயோகத்திற்கான iCloud ஐ ஸ்கேன் செய்யும் திட்டத்தை ஆப்பிள் கைவிடுகிறது

ஒரு அறிக்கையின்படி வயர்டு , குழந்தைகளை துஷ்பிரயோகம் செய்யும் உள்ளடக்கத்திற்காக உங்கள் iCloud ஐ ஸ்கேன் செய்யும் திட்டத்திலிருந்து Apple விலகிச் செல்கிறது. குழந்தைகள் பாதுகாப்பு அமைப்புகளால் அடையாளம் காணப்பட்ட அறியப்பட்ட CSAM படங்களுடன் பொருந்தக்கூடியவற்றைக் கண்டறிய iCloud இல் சேமிக்கப்பட்ட புகைப்படங்களை இந்த கருவி ஸ்கேன் செய்யும். அமெரிக்கா உட்பட பெரும்பாலான அதிகார வரம்புகளில் CSAM படங்களை வைத்திருப்பது சட்டவிரோதமானது என்பதால் அது அந்தப் படங்களைப் புகாரளிக்கலாம்.

iCloud புகைப்படங்களை ஸ்கேன் செய்யும் திட்டத்தை ஆப்பிள் ஏன் ரத்து செய்தது

2021 ஆம் ஆண்டின் ஆரம்ப அறிவிப்புக்குப் பிறகு, ஆப்பிள் நிறுவனம் உலகளாவிய டிஜிட்டல் தனியுரிமை மற்றும் பாதுகாப்பிற்காக வாதிடும் வாடிக்கையாளர்கள், குழுக்கள் மற்றும் தனிநபர்களிடமிருந்து பின்னடைவை எதிர்கொண்டது. ஐபோன்கள் பொதுவாக ஆண்ட்ராய்டு சாதனங்களை விட அதிக பாதுகாப்பை வழங்குகின்றன , மற்றும் பலர் இதை ஒரு படி பின்வாங்குவதாக கருதினர். குழந்தை பாதுகாப்பு நிறுவனங்களுக்கு இது ஒரு வெற்றியாக இருந்தாலும், அதே மாதத்தின் பிற்பகுதியில் 90 க்கும் மேற்பட்ட கொள்கை குழுக்கள் ஆப்பிள் நிறுவனத்திற்கு ஒரு திறந்த கடிதம் எழுதி, திட்டத்தை ரத்து செய்யும்படி நிறுவனத்திடம் தெரிவித்தன.



நெட்ஃபிக்ஸ் தொடர்ந்து பார்ப்பதிலிருந்து எதையாவது அகற்றுவது எப்படி
 ஆப்பிள் ஸ்டோரின் முன்புறம்

கருவி உத்தேசித்துள்ள போது கடிதம் வாதிட்டது துஷ்பிரயோகத்தில் இருந்து குழந்தைகளை பாதுகாக்க , இது பேச்சு சுதந்திரத்தை தணிக்கை செய்வதற்கும் பயனரின் தனியுரிமை மற்றும் பாதுகாப்பை அச்சுறுத்துவதற்கும் பயன்படுத்தப்படலாம். பெருகிவரும் அழுத்தத்தின் காரணமாக, கருத்துக்களைச் சேகரிப்பதற்கும் அம்சத்தில் தேவையான மாற்றங்களைச் செய்வதற்கும் ஆப்பிள் அதன் வெளியீட்டுத் திட்டங்களை நிறுத்தியது. இருப்பினும், iCloud புகைப்படங்களை ஸ்கேன் செய்வதற்கான ஆப்பிளின் திட்டத்திற்கு பின்னூட்டம் சாதகமாக இல்லை, எனவே நிறுவனம் அதிகாரப்பூர்வமாக திட்டங்களை கைவிடுகிறது.

WIRED க்கு ஒரு அறிக்கையில், நிறுவனம் கூறியது:





'iCloud புகைப்படங்களுக்கான CSAM கண்டறிதல் கருவியை நாங்கள் முன்மொழியவில்லை... இளைஞர்களே, அவர்களின் தனியுரிமைக்கான உரிமையைப் பாதுகாத்து, குழந்தைகளுக்கும் நம் அனைவருக்கும் இணையத்தை பாதுகாப்பான இடமாக மாற்றவும்.'

குழந்தைகளைப் பாதுகாக்க ஆப்பிள் நிறுவனத்தின் புதிய திட்டம்

ஆகஸ்ட் 2021 இல் அறிவிக்கப்பட்டு அதே ஆண்டு டிசம்பரில் தொடங்கப்பட்ட தகவல் தொடர்பு பாதுகாப்பு அம்சங்களை மேம்படுத்துவதற்கான தனது முயற்சிகளை ஆப்பிள் திருப்பி அனுப்புகிறது.





தகவல்தொடர்பு பாதுகாப்பு விருப்பமானது மற்றும் iMessage இல் வெளிப்படையான பாலியல் படங்களை அனுப்புதல் மற்றும் பெறுதல் ஆகிய இரண்டிலிருந்தும் குழந்தைகளைப் பாதுகாக்க பெற்றோர் மற்றும் பாதுகாவலர்களால் பயன்படுத்தப்படலாம். இந்த அம்சம் அத்தகைய புகைப்படங்களை தானாகவே மங்கலாக்குகிறது, மேலும் அதில் உள்ள ஆபத்துகள் குறித்து குழந்தைக்கு எச்சரிக்கப்படும். ஆப்பிள் சாதனங்களில் CSAM ஐத் தேட முயற்சித்தால் அது எச்சரிக்கும்.

ஃபோட்டோஷாப்பில் தூரிகையை சுழற்றுவது எப்படி

CSAM-கண்டறிதல் கருவியைத் தொடங்குவதற்கான திட்டங்கள் ரத்துசெய்யப்பட்ட நிலையில், இந்த அம்சத்தை மேலும் மேம்படுத்தி மேலும் தகவல்தொடர்பு பயன்பாடுகளுக்கு விரிவுபடுத்த நிறுவனம் எதிர்பார்க்கிறது.