AI மாடல்களுக்கு எதிரான விரோதத் தாக்குதல்கள் என்றால் என்ன, அவற்றை எவ்வாறு நிறுத்துவது?

AI மாடல்களுக்கு எதிரான விரோதத் தாக்குதல்கள் என்றால் என்ன, அவற்றை எவ்வாறு நிறுத்துவது?
உங்களைப் போன்ற வாசகர்கள் MUO ஐ ஆதரிக்க உதவுகிறார்கள். எங்கள் தளத்தில் உள்ள இணைப்புகளைப் பயன்படுத்தி நீங்கள் வாங்கும் போது, ​​நாங்கள் ஒரு இணை கமிஷனைப் பெறலாம். மேலும் படிக்க.

செயற்கை நுண்ணறிவின் முன்னேற்றங்கள் பல்வேறு துறைகளில் குறிப்பிடத்தக்க தாக்கத்தை ஏற்படுத்தியுள்ளன. இது பல தொழில்நுட்ப ஆர்வலர்களுக்கு கவலையை ஏற்படுத்தியுள்ளது. இந்த தொழில்நுட்பங்கள் வெவ்வேறு பயன்பாடுகளில் விரிவடைவதால், அவை எதிரிகளின் தாக்குதல்களை அதிகரிக்கலாம்.





செயற்கை நுண்ணறிவில் எதிர் தாக்குதல்கள் என்றால் என்ன?

AI மாடல்களில் உள்ள விவரக்குறிப்புகள் மற்றும் பாதிப்புகளை எதிரி தாக்குதல்கள் பயன்படுத்துகின்றன. AI மாதிரிகள் கற்றுக்கொண்ட தரவை அவை சிதைத்து, இந்த மாதிரிகள் தவறான வெளியீடுகளை உருவாக்குகின்றன.





அன்றைய வீடியோவை உருவாக்கவும் உள்ளடக்கத்துடன் தொடர உருட்டவும்

ஒரு குறும்புக்காரன் அன்னாசிப்பழமாக அமைக்கப்பட்ட ஸ்கிராபிள் டைல்களை 'ஆப்பிள்பைன்' ஆக மாற்றுகிறான் என்று கற்பனை செய்து பாருங்கள். இது எதிரிகளின் தாக்குதல்களில் நிகழ்வதைப் போன்றது.





சில ஆண்டுகளுக்கு முன்பு, AI மாதிரியிலிருந்து சில தவறான பதில்கள் அல்லது வெளியீடுகளைப் பெறுவது வழக்கமாக இருந்தது. AI பயனர்கள் கிட்டத்தட்ட சரியான முடிவுகளை எதிர்பார்க்கும் நிலையில், தவறுகள் விதிவிலக்காக மாறிவிட்டதால், இப்போது தலைகீழ் நிலை உள்ளது.

இந்த AI மாதிரிகள் நிஜ-உலகக் காட்சிகளுக்குப் பயன்படுத்தப்படும்போது, ​​தவறுகள் ஆபத்தானவை, எதிரிகளின் தாக்குதல்கள் மிகவும் ஆபத்தானவை. உதாரணமாக, போக்குவரத்து அறிகுறிகளில் உள்ள ஸ்டிக்கர்கள் ஒரு தன்னாட்சி சுய-ஓட்டுநர் காரை குழப்பி, போக்குவரத்திற்கு அல்லது நேரடியாக ஒரு தடையாக மாற்றலாம்.



விரோத தாக்குதல்களின் வகைகள்

பல்வேறு வகையான எதிரி தாக்குதல்கள் உள்ளன. உடன் தினசரி பயன்பாடுகளில் AI இன் ஒருங்கிணைப்பை அதிகரிக்கிறது , இந்த தாக்குதல்கள் மோசமாகவும் சிக்கலானதாகவும் இருக்கும்.

ஆயினும்கூட, AI மாதிரியைப் பற்றி அச்சுறுத்தல் நடிகருக்கு எவ்வளவு தெரியும் என்பதன் அடிப்படையில் எதிரிகளின் தாக்குதல்களை தோராயமாக இரண்டு வகைகளாக வகைப்படுத்தலாம்.





விண்டோஸ் 10 அச்சுப்பொறி ஆஃப்லைனில் இருப்பதாக நினைக்கிறது

1. வெள்ளை பெட்டி தாக்குதல்கள்

  கணினியில் பெண் குறியீட்டு முறை

இல் வெள்ளை பெட்டி தாக்குதல்கள் , அச்சுறுத்தல் நடிகர்களுக்கு AI மாதிரியின் உள் செயல்பாடுகள் பற்றிய முழுமையான அறிவு உள்ளது. அவர்கள் அதன் விவரக்குறிப்புகள், பயிற்சி தரவு, செயலாக்க நுட்பங்கள் மற்றும் அளவுருக்கள் ஆகியவற்றை அறிவார்கள். இந்த அறிவு குறிப்பாக மாதிரிக்கு ஒரு எதிரியான தாக்குதலை உருவாக்க அவர்களுக்கு உதவுகிறது.

ஒயிட் பாக்ஸ் தாக்குதலின் முதல் படி, அசல் பயிற்சித் தரவை மாற்றுவது, சாத்தியமான சிறிய வழியில் அதை சிதைப்பது. மாற்றியமைக்கப்பட்ட தரவு இன்னும் அசலைப் போலவே இருக்கும், ஆனால் AI மாதிரி துல்லியமற்ற முடிவுகளைக் கொடுக்கும் அளவுக்கு குறிப்பிடத்தக்கதாக இருக்கும்.





அதுமட்டுமல்ல. தாக்குதலைத் தொடர்ந்து, அச்சுறுத்தல் நடிகர், மாடலின் செயல்திறனை எதிரெதிர் உதாரணங்களை ஊட்டுவதன் மூலம் மதிப்பிடுகிறார்- மாதிரியில் தவறுகளை ஏற்படுத்தும் வகையில் வடிவமைக்கப்பட்ட சிதைந்த உள்ளீடுகள் - மற்றும் வெளியீட்டை பகுப்பாய்வு செய்கிறது. மிகவும் தவறான முடிவு, மிகவும் வெற்றிகரமான தாக்குதல்.

2. கருப்பு பெட்டி தாக்குதல்கள்

வெள்ளைப் பெட்டித் தாக்குதல்களைப் போலல்லாமல், AI மாதிரியின் உள் செயல்பாடுகளைப் பற்றி அச்சுறுத்தும் நடிகருக்குத் தெரியும், குற்றவாளிகள் கருப்பு பெட்டி தாக்குதல்கள் மாதிரி எப்படி வேலை செய்கிறது என்று தெரியவில்லை. அவர்கள் மாதிரியை கண்மூடித்தனமான இடத்தில் இருந்து கவனித்து, அதன் உள்ளீடு மற்றும் வெளியீட்டு மதிப்புகளைக் கண்காணிக்கிறார்கள்.

கருப்புப் பெட்டி தாக்குதலின் முதல் படி, AI மாதிரி வகைப்படுத்த விரும்பும் உள்ளீட்டு இலக்கைத் தேர்ந்தெடுப்பதாகும். அச்சுறுத்தல் நடிகர் பின்னர் கவனமாக வடிவமைக்கப்பட்ட சத்தம், மனித கண்ணுக்குத் தெரியாத தரவுகளுக்கு இடையூறுகளைச் சேர்ப்பதன் மூலம் உள்ளீட்டின் தீங்கிழைக்கும் பதிப்பை உருவாக்குகிறார், ஆனால் AI மாதிரியை செயலிழக்கச் செய்யும் திறன் கொண்டது.

தீங்கிழைக்கும் பதிப்பு மாதிரிக்கு வழங்கப்படுகிறது, மேலும் வெளியீடு கவனிக்கப்படுகிறது. மாதிரியால் வழங்கப்பட்ட முடிவுகள், அச்சுறுத்தல் நடிகருக்கு பதிப்பில் கொடுக்கப்பட்ட எந்தத் தரவையும் தவறாக வகைப்படுத்தும் என்று போதுமான நம்பிக்கை இருக்கும் வரை பதிப்பை மாற்றியமைக்க உதவுகின்றன.

எதிரிகளின் தாக்குதல்களில் பயன்படுத்தப்படும் நுட்பங்கள்

  பாட்நெட் சாதனங்களைக் கண்காணிக்கும் ஹேக்கர்

தீங்கிழைக்கும் நிறுவனங்கள் எதிர்மறையான தாக்குதல்களை மேற்கொள்ள பல்வேறு நுட்பங்களைப் பயன்படுத்தலாம். இந்த நுட்பங்களில் சில இங்கே.

1. விஷம்

AI மாதிரியின் உள்ளீட்டுத் தரவின் ஒரு சிறிய பகுதியைத் தாக்குபவர்கள் அதன் பயிற்சி தரவுத்தொகுப்புகளையும் துல்லியத்தையும் சமரசம் செய்ய (விஷம்) கையாளலாம்.

விஷத்தின் பல வடிவங்கள் உள்ளன. பொதுவானவற்றில் ஒன்று பின்கதவு விஷம் என்று அழைக்கப்படுகிறது, அங்கு மிகக் குறைந்த பயிற்சி தரவு பாதிக்கப்படுகிறது. AI மாதிரியானது குறிப்பிட்ட தூண்டுதல்களுடன் தொடர்பு கொள்ளும்போது செயலிழக்க 'செயல்படுத்தப்படும்' வரை மிகவும் துல்லியமான முடிவுகளைத் தொடர்ந்து அளிக்கிறது.

2. ஏய்ப்பு

இந்த நுட்பம் மிகவும் ஆபத்தானது, ஏனெனில் இது AI இன் பாதுகாப்பு அமைப்பைப் பின்பற்றுவதன் மூலம் கண்டறிவதைத் தவிர்க்கிறது.

பெரும்பாலான AI மாதிரிகள் ஒழுங்கின்மை கண்டறிதல் அமைப்புகளுடன் பொருத்தப்பட்டுள்ளன. ஏய்ப்பு உத்திகள் இந்த அமைப்புகளை நேரடியாகப் பின்தொடர்ந்து செல்லும் எதிரிகளின் உதாரணங்களைப் பயன்படுத்துகின்றன.

இந்த நுட்பம் தன்னாட்சி கார்கள் அல்லது மருத்துவ நோயறிதல் மாதிரிகள் போன்ற மருத்துவ அமைப்புகளுக்கு எதிராக குறிப்பாக ஆபத்தானது. துல்லியமின்மை கடுமையான விளைவுகளை ஏற்படுத்தக்கூடிய துறைகள் இவை.

உங்கள் ஐபோனை மீட்பு முறையில் வைப்பது எப்படி

3. இடமாற்றம்

இந்த நுட்பத்தைப் பயன்படுத்தும் அச்சுறுத்தல் நடிகர்களுக்கு AI மாதிரியின் அளவுருக்கள் பற்றிய முந்தைய அறிவு தேவையில்லை. மாடலின் பிற பதிப்புகளுக்கு எதிராக கடந்த காலத்தில் வெற்றிகரமான எதிர் தாக்குதல்களை அவர்கள் பயன்படுத்துகின்றனர்.

எடுத்துக்காட்டாக, ஒரு எதிர்ப்பாளர் தாக்குதலால் பட வகைப்படுத்தி மாதிரியானது ஆமையை துப்பாக்கி என்று தவறாகக் கருதினால், துல்லியமான தாக்குதல் மற்ற பட வகைப்படுத்தி மாதிரிகள் அதே பிழையை ஏற்படுத்தக்கூடும். மற்ற மாதிரிகள் வெவ்வேறு தரவுத்தொகுப்பில் பயிற்சி பெற்றிருக்கலாம் மற்றும் வேறுபட்ட கட்டிடக்கலையைக் கொண்டிருக்கலாம், ஆனால் தாக்குதலுக்கு பலியாகலாம்.

4. வாடகைத்தாய்

ஏய்ப்பு நுட்பங்கள் அல்லது முந்தைய வெற்றிகரமான தாக்குதல்களைப் பயன்படுத்தி மாடலின் பாதுகாப்பு அமைப்புகளைப் பின்பற்றுவதற்குப் பதிலாக, அச்சுறுத்தல் நடிகர் ஒரு பினாமி மாதிரியைப் பயன்படுத்தலாம்.

இந்த நுட்பத்தின் மூலம், அச்சுறுத்தல் நடிகர் இலக்கு மாதிரியின் ஒரே மாதிரியான பதிப்பை உருவாக்குகிறார், ஒரு வாடகை மாதிரி. பினாமியின் முடிவுகள், அளவுருக்கள் மற்றும் நடத்தைகள் நகலெடுக்கப்பட்ட அசல் மாதிரியைப் போலவே இருக்க வேண்டும்.

ஒரு தவறான விளைவை உருவாக்கும் வரை அல்லது ஒரு தவறான வகைப்படுத்தலைச் செய்யும் வரை, பினாமி இப்போது பல்வேறு விரோத தாக்குதல்களுக்கு உட்படுத்தப்படும். பின்னர், இந்த தாக்குதல் அசல் இலக்கு AI இல் பயன்படுத்தப்படும்.

எதிரிகளின் தாக்குதல்களை எவ்வாறு நிறுத்துவது

  ஒரு நபர் தனது கையை உயர்த்தி வைத்திருக்கும் சிவப்பு மற்றும் வெள்ளை அடையாளம்

அச்சுறுத்தல் நடிகர்கள் பல்வேறு வடிவங்கள் மற்றும் நுட்பங்களைப் பயன்படுத்துவதால், எதிரிகளின் தாக்குதல்களுக்கு எதிராக பாதுகாப்பது சிக்கலானது மற்றும் நேரத்தை எடுத்துக்கொள்ளும். இருப்பினும், பின்வரும் வழிமுறைகள் எதிரிகளின் தாக்குதல்களைத் தடுக்கவும் நிறுத்தவும் முடியும்.

1. விரோதப் பயிற்சி

எதிரிகளின் தாக்குதல்களைத் தடுக்கக்கூடிய மிகவும் பயனுள்ள படி, எதிரிடையான பயிற்சி, AI மாதிரிகள் மற்றும் இயந்திரங்களைப் பயிற்றுவிப்பது, எதிரிகளின் உதாரணங்களைப் பயன்படுத்தி. இது மாதிரியின் வலிமையை மேம்படுத்துகிறது மற்றும் சிறிதளவு உள்ளீடு இடையூறுகளுக்கு மீள்தன்மையுடன் இருக்க அனுமதிக்கிறது.

பழைய ஃபேஸ்புக் கணக்கில் எப்படி நுழைவது

2. வழக்கமான தணிக்கை

AI மாதிரியின் ஒழுங்கின்மை கண்டறிதல் அமைப்பில் உள்ள பலவீனங்களைத் தொடர்ந்து சரிபார்க்க வேண்டியது அவசியம். இது வேண்டுமென்றே எதிர்விளைவு எடுத்துக்காட்டுகளுடன் மாதிரியை ஊட்டுவதையும், தீங்கிழைக்கும் உள்ளீட்டிற்கு மாதிரியின் நடத்தையைக் கண்காணிப்பதையும் உள்ளடக்குகிறது.

3. தரவு சுத்திகரிப்பு

இந்த முறையானது மாடலில் தீங்கிழைக்கும் உள்ளீடுகளைச் சரிபார்ப்பதை உள்ளடக்கியது. அவற்றைக் கண்டறிந்த பிறகு, அவை உடனடியாக அகற்றப்பட வேண்டும்.

இந்தத் தரவை உள்ளீடு சரிபார்ப்பைப் பயன்படுத்தி அடையாளம் காண முடியும், இது முன்னர் அறியப்பட்ட எதிர்விளைவு எடுத்துக்காட்டுகளின் வடிவங்கள் அல்லது கையொப்பங்களுக்கான தரவைச் சரிபார்க்கும்.

4. பாதுகாப்பு புதுப்பிப்புகள்

பாதுகாப்பு புதுப்பிப்புகள் மற்றும் இணைப்புகளில் தவறாகப் போவது கடினம். ஃபயர்வால்கள், மால்வேர் எதிர்ப்பு நிரல்கள் மற்றும் பல அடுக்கு பாதுகாப்பு ஊடுருவல் கண்டறிதல் மற்றும் தடுப்பு அமைப்புகள் AI மாதிரியை விஷமாக்க விரும்பும் அச்சுறுத்தல் நடிகர்களிடமிருந்து வெளிப்புற குறுக்கீட்டைத் தடுக்க உதவும்.

எதிரிகளின் தாக்குதல்கள் ஒரு தகுதியான எதிரியாக இருக்கலாம்

மேம்பட்ட கற்றல் மற்றும் இயந்திர கற்றல் ஆகியவற்றிற்கு எதிரிடையான தாக்குதல்களின் கருத்து ஒரு சிக்கலை அளிக்கிறது.

இதன் விளைவாக, AI மாதிரிகள் எதிரி பயிற்சி, வழக்கமான தணிக்கை, தரவு சுத்திகரிப்பு மற்றும் தொடர்புடைய பாதுகாப்பு புதுப்பிப்புகள் போன்ற பாதுகாப்புகளுடன் ஆயுதம் ஏந்த வேண்டும்.