AI Deepfakes இன் எதிர்காலம்: இந்த வளர்ந்து வரும் தொழில்நுட்பத்தின் 3 உண்மையான ஆபத்துகள்

AI Deepfakes இன் எதிர்காலம்: இந்த வளர்ந்து வரும் தொழில்நுட்பத்தின் 3 உண்மையான ஆபத்துகள்
உங்களைப் போன்ற வாசகர்கள் MUO ஐ ஆதரிக்க உதவுகிறார்கள். எங்கள் தளத்தில் உள்ள இணைப்புகளைப் பயன்படுத்தி நீங்கள் வாங்கும் போது, ​​நாங்கள் ஒரு இணை கமிஷனைப் பெறலாம். மேலும் படிக்க.

ஒரு டீப்ஃபேக் படத்தின் சொல்-டேல் அறிகுறிகளைக் கண்டறிவது எளிதாக இருந்தது, ஆனால் உருவாக்கும் AI இப்போது நாம் பார்க்கும் மற்றும் கேட்கும் அனைத்தையும் பற்றி கேள்வி எழுப்புகிறது. வெளியிடப்படும் ஒவ்வொரு புதிய AI மாடலிலும், போலி உருவத்தின் அறிகுறிகள் குறைந்து வருகின்றன, மேலும் குழப்பத்தை அதிகரிக்க, நீங்கள் இப்போது ஆழமான வீடியோக்கள், உங்கள் அன்புக்குரியவர்களின் குரல் குளோன்களை உருவாக்கலாம் மற்றும் வெறும் நொடிகளில் போலி கட்டுரைகளை உருவாக்கலாம்.





அன்றைய வீடியோவை உருவாக்கவும் உள்ளடக்கத்துடன் தொடர உருட்டவும்

AI டீப்ஃபேக்குகளால் ஏமாறுவதைத் தவிர்க்க, அவை என்ன வகையான ஆபத்துக்களை ஏற்படுத்துகின்றன என்பதை அறிவது மதிப்பு.





டீப்ஃபேக்குகளின் பரிணாமம்

டீப்ஃபேக் ஒரு நபர் நிஜ வாழ்க்கையில் நடக்காத ஒன்றைச் செய்வதைக் காட்டுகிறது. இது முற்றிலும் போலியானது. டீப்ஃபேக்குகள் இணையத்தில் ஒரு மீம் அல்லது நகைச்சுவையாகப் பகிரப்படும்போது நாம் சிரிக்கிறோம், ஆனால் மிகச் சிலரே நம்மைத் தவறாக வழிநடத்தும் போது அதை வேடிக்கையாகக் காண்கிறார்கள்.





கடந்த காலத்தில், ஃபோட்டோஷாப் போன்ற பட எடிட்டிங் மென்பொருளில் ஏற்கனவே உள்ள புகைப்படத்தை எடுத்து அதை மாற்றுவதன் மூலம் டீப்ஃபேக்குகள் உருவாக்கப்பட்டன. ஆனால் AI டீப்ஃபேக்கை வேறுபடுத்துவது என்னவென்றால், ஆழமான கற்றல் வழிமுறைகளைப் பயன்படுத்தி அதை புதிதாக உருவாக்க முடியும்.

தி மெரியம்-வெப்ஸ்டர் அகராதி ஒரு டீப்ஃபேக்கை இவ்வாறு வரையறுக்கிறது:



உண்மையாகச் செய்யாத அல்லது சொல்லாத ஒன்றைச் செய்வதாகவோ அல்லது சொல்வதாகவோ தவறாக சித்தரிக்க, நம்பத்தகுந்த வகையில் மாற்றப்பட்டு கையாளப்பட்ட படம் அல்லது பதிவு.

ஆனால் AI தொழில்நுட்பத்தின் முன்னேற்றத்துடன், இந்த வரையறை காலாவதியாகத் தெரிகிறது. AI கருவிகளைப் பயன்படுத்துவதன் மூலம், டீப்ஃபேக்குகளில் இப்போது படங்கள், உரை, வீடியோக்கள் மற்றும் குரல் குளோனிங் ஆகியவை அடங்கும். சில நேரங்களில், AI உருவாக்கத்தின் நான்கு முறைகளும் ஒரே நேரத்தில் பயன்படுத்தப்படுகின்றன.





இது நம்பமுடியாத வேகமான மற்றும் மலிவான ஒரு தானியங்கி செயல்முறை என்பதால், நாம் இதுவரை பார்த்திராத விகிதத்தில் டீப்ஃபேக்குகளை வெளியேற்றுவதற்கான சரியான கருவி இது - புகைப்படங்கள், வீடியோக்கள் அல்லது ஆடியோவை எவ்வாறு எடிட் செய்வது என்பது பற்றி ஒரு விஷயம் கூட தெரியாமல் .

AI டீப்ஃபேக்கின் பெரிய ஆபத்துகள்

ஒரு புரவலன் AI வீடியோ ஜெனரேட்டர்கள் ஏற்கனவே நிறைய உள்ளன AI குரல் ஜெனரேட்டர்கள் . எறியுங்கள் GPT-4 போன்ற பெரிய மொழி மாதிரி நவீன வரலாற்றில் இதுவரை நாம் பார்த்த மிகவும் நம்பத்தகுந்த டீப்ஃபேக்குகளை உருவாக்குவதற்கான செய்முறை உங்களிடம் உள்ளது.





யூடியூப் வீடியோக்களைப் பதிவிறக்குவது சட்டபூர்வமானதா?

பல்வேறு வகையான AI டீப்ஃபேக்குகள் மற்றும் உங்களை ஏமாற்ற அவை எவ்வாறு பயன்படுத்தப்படலாம் என்பதைப் பற்றி அறிந்திருப்பது, தவறாக வழிநடத்தப்படுவதைத் தவிர்ப்பதற்கான ஒரு வழியாகும். AI டீப்ஃபேக் தொழில்நுட்பம் எவ்வாறு உண்மையான அச்சுறுத்தலை ஏற்படுத்துகிறது என்பதற்கான சில தீவிர எடுத்துக்காட்டுகள் இங்கே உள்ளன.

1. AI அடையாள திருட்டு

நீங்கள் அவர்களைப் பார்த்திருக்கலாம். உலகம் முழுவதும் பரவிய முதல் உண்மையான வைரலான AI டீப்ஃபேக்குகளில், டொனால்ட் டிரம்ப் கைது செய்யப்பட்ட படமும், வெள்ளை நிற பஃபர் ஜாக்கெட்டில் போப் பிரான்சிஸ் ஒருவரும் இருந்தனர்.

  AI ஆனது ஒரு பஃபர் ஜாக்கெட்டில் போப் பிரான்சிஸின் படத்தை உருவாக்கியது, இது ரெடிட்டில் மிட்ஜர்னி மன்றத்தில் வெளியிடப்பட்டது.

ஒரு பிரபலமான மத பிரமுகர் ரோமில் ஒரு குளிர் நாளில் என்ன அணியலாம் என்பதை ஒரு அப்பாவி மறு கற்பனை போல் தெரிகிறது; மற்ற படம், ஒரு அரசியல் பிரமுகரை சட்டத்தின் தீவிரமான சூழ்நிலையில் காட்டுவது, உண்மையானதாக எடுத்துக் கொண்டால் மிக அதிகமான விளைவுகளை ஏற்படுத்தும்.

இதுவரை, AI டீப்ஃபேக்குகளை உருவாக்கும் போது மக்கள் முக்கியமாக பிரபலங்கள், அரசியல் பிரமுகர்கள் மற்றும் பிற பிரபலமான நபர்களை குறிவைத்துள்ளனர். ஒரு பகுதியாக, பிரபலமான நபர்கள் இணையத்தில் அவர்களின் ஏராளமான புகைப்படங்களை வைத்திருப்பதால், இது மாடலை முதலில் பயிற்றுவிக்க உதவியது.

டிரம்ப் மற்றும் போப்பின் டீப்ஃபேக் இரண்டிலும் பயன்படுத்தப்படும் மிட்ஜர்னி போன்ற AI இமேஜ் ஜெனரேட்டரின் விஷயத்தில், ஒரு பயனர் தாங்கள் பார்க்க விரும்புவதை விவரிக்கும் உரையை உள்ளிட வேண்டும். புகைப்படம் அல்லது ஃபோட்டோரியலிசம் போன்ற கலை பாணியைக் குறிப்பிட முக்கிய வார்த்தைகளைப் பயன்படுத்தலாம், மேலும் தீர்மானத்தை உயர்த்துவதன் மூலம் முடிவுகளை நன்றாகச் சரிசெய்யலாம்.

மடிக்கணினி கேமராவை தொலைவிலிருந்து ஹேக் செய்வது எப்படி

உங்களால் எளிதாக முடியும் மிட்ஜர்னியை பயன்படுத்த கற்றுக்கொள்ளுங்கள் இதை நீங்களே சோதித்துப் பாருங்கள், ஆனால் வெளிப்படையான தார்மீக மற்றும் சட்ட காரணங்களுக்காக, இந்தப் படங்களைப் பொதுவில் இடுகையிடுவதைத் தவிர்க்க வேண்டும்.

துரதிர்ஷ்டவசமாக, ஒரு சராசரி, பிரபலமற்ற மனிதராக இருப்பதால், AI டீப்ஃபேக்குகளிலிருந்தும் நீங்கள் பாதுகாப்பாக இருக்கிறீர்கள் என்பதற்கு உத்தரவாதம் அளிக்க முடியாது.

AI இமேஜ் ஜெனரேட்டர்கள் வழங்கும் முக்கிய அம்சத்தில் சிக்கல் உள்ளது: உங்கள் சொந்தப் படத்தைப் பதிவேற்றி அதை AI மூலம் கையாளும் திறன். மற்றும் போன்ற ஒரு கருவி DALL-E 2 இல் அவுட் பெயிண்டிங் ஏற்கனவே உள்ள படத்தை அதன் எல்லைகளுக்கு அப்பால் நீட்டிக்க முடியும், உரை வரியில் உள்ளீடு மற்றும் நீங்கள் வேறு என்ன உருவாக்க விரும்புகிறீர்கள் என்பதை விவரிப்பதன் மூலம்.

உங்கள் புகைப்படங்களுடன் வேறு யாராவது இதைச் செய்தால், வெள்ளை ஜாக்கெட்டில் போப்பின் டீப்ஃபேக்கை விட ஆபத்துகள் கணிசமாக அதிகமாக இருக்கும் - அவர்கள் உங்களைப் போல் பாசாங்கு செய்து அதை எங்கும் பயன்படுத்தலாம். பெரும்பாலான மக்கள் பொதுவாக நல்ல நோக்கத்துடன் AI ஐப் பயன்படுத்தும்போது, ​​​​குறிப்பாக அடையாளத் திருட்டு நிகழ்வுகளில், தீங்கு விளைவிப்பதற்காக அதைப் பயன்படுத்துவதைத் தடுக்கும் சில கட்டுப்பாடுகள் உள்ளன.

2. டீப்ஃபேக் குரல் குளோன் மோசடிகள்

AI இன் உதவியுடன், நம்மில் பெரும்பாலோர் தயாராக இல்லாத ஒரு கோட்டை டீப்ஃபேக்குகள் கடந்துவிட்டன: போலி குரல் குளோன்கள். நீங்கள் ஒருமுறை இடுகையிட்ட டிக்டோக் வீடியோ அல்லது நீங்கள் தோன்றும் YouTube வீடியோவில் இருந்து ஒரு சிறிய அளவு அசல் ஆடியோவுடன் - AI மாதிரியானது உங்கள் ஒரே குரலை பிரதிபலிக்கும்.

ஒரு குடும்ப உறுப்பினர், நண்பர் அல்லது சக ஊழியரைப் போல ஒரு தொலைபேசி அழைப்பைப் பெறுவதை கற்பனை செய்வது விசித்திரமாகவும் பயமாகவும் இருக்கிறது. டீப்ஃபேக் குரல் குளோன்கள் மிகவும் தீவிரமான கவலையாக இருக்கின்றன ஃபெடரல் டிரேட் கமிஷன் (FTC) என்பது குறித்து எச்சரிக்கை விடுத்துள்ளது.

குரலை நம்பாதே. உங்களைத் தொடர்புகொண்டதாகக் கூறப்படும் நபரை அழைத்து கதையைச் சரிபார்க்கவும். அவர்களுடையது என்று உங்களுக்குத் தெரிந்த தொலைபேசி எண்ணைப் பயன்படுத்தவும். உங்கள் அன்புக்குரியவரை உங்களால் அடைய முடியாவிட்டால், மற்றொரு குடும்ப உறுப்பினர் அல்லது அவர்களது நண்பர்கள் மூலம் அவர்களைத் தொடர்புகொள்ள முயற்சிக்கவும்.

வாஷிங்டன் போஸ்ட் செய்தி வெளியிட்டுள்ளது 70 வயதுகளில் இருக்கும் ஒரு தம்பதியினர், தங்கள் பேரனைப் போலவே ஒலிக்கும் ஒருவரிடமிருந்து தொலைபேசி அழைப்பைப் பெற்ற சம்பவம். சிறையில் இருந்த அவருக்கு ஜாமீனுக்கு அவசரமாக பணம் தேவைப்பட்டது. அவர்கள் யாருடன் பேசுகிறார்கள் என்று சந்தேகிக்க வேறு எந்த காரணமும் இல்லாமல் அவர்கள் மேலே சென்று பணத்தை மோசடி செய்பவரிடம் கொடுத்தனர்.

ஆபத்தில் இருப்பது பழைய தலைமுறையினர் மட்டுமல்ல, கார்டியன் செய்தி வெளியிட்டுள்ளது ஒரு வங்கி மேலாளரின் மற்றொரு உதாரணம், ஒரு வங்கி இயக்குனர் என்று அவர்கள் நம்பிய ஒருவரிடமிருந்து 'ஆழமான போலி அழைப்புகளுக்கு' பிறகு மில்லியன் டாலர் பரிவர்த்தனைக்கு ஒப்புதல் அளித்தார்.

3. பெருமளவில் தயாரிக்கப்பட்ட போலிச் செய்திகள்

பெரிய மொழி மாதிரிகள், போன்றவை ChatGPT ஒரு மனிதனைப் போன்றே ஒலிக்கும் உரையை உருவாக்குவதில் மிகவும் சிறந்தவர்கள், மேலும் வித்தியாசத்தைக் கண்டறிவதற்கான பயனுள்ள கருவிகள் தற்போது எங்களிடம் இல்லை. தவறான கைகளில், போலி செய்திகள் மற்றும் சதி கோட்பாடுகள் தயாரிப்பதற்கு மலிவானவை மற்றும் நீக்குவதற்கு அதிக நேரம் எடுக்கும்.

தவறான தகவல்களைப் பரப்புவது ஒன்றும் புதிதல்ல, ஆனால் ஒரு ஆய்வுக் கட்டுரை arXiv இல் வெளியிடப்பட்டது ஜனவரி 2023 இல், AI கருவிகள் மூலம் வெளியீட்டை அளவிடுவது எவ்வளவு எளிது என்பதில் சிக்கல் உள்ளது என்று விளக்குகிறது. அவர்கள் அதை 'AI-உருவாக்கிய செல்வாக்கு பிரச்சாரங்கள்' என்று குறிப்பிடுகிறார்கள், உதாரணமாக, அரசியல்வாதிகள் தங்கள் அரசியல் பிரச்சாரங்களை அவுட்சோர்ஸ் செய்ய பயன்படுத்தலாம் என்று அவர்கள் கூறுகிறார்கள்.

ஒன்றுக்கும் மேற்பட்ட AI-உருவாக்கப்பட்ட மூலங்களை இணைப்பது உயர்-நிலை டீப்ஃபேக்கை உருவாக்குகிறது. எடுத்துக்காட்டாக, டொனால்ட் ட்ரம்ப் கைது செய்யப்பட்டதாக போலியான படத்துடன் இணைந்து நன்கு எழுதப்பட்ட மற்றும் உறுதியான செய்தியை AI மாதிரி உருவாக்க முடியும். படம் சொந்தமாக பகிரப்பட்டதை விட இது அதிக சட்டபூர்வமான தன்மையை அளிக்கிறது.

போலிச் செய்திகள் படங்கள் மற்றும் எழுதுதல் ஆகியவற்றுடன் மட்டுப்படுத்தப்படவில்லை, AI வீடியோ உருவாக்கத்தின் வளர்ச்சிகள், மேலும் ஆழமான வீடியோக்கள் வளர்ந்து வருவதைக் காண்கிறோம். ராபர்ட் டவுனி ஜூனியர் ஒருவர் எலோன் மஸ்க்கின் வீடியோவில் ஒட்டியுள்ளார். யூடியூப் சேனல் Deepfakery.

ஒரு குறுஞ்செய்தியை எப்படி அனுப்புவது

ஒரு டீப்ஃபேக்கை உருவாக்குவது ஒரு பயன்பாட்டைப் பதிவிறக்குவது போல எளிமையானது. போன்ற பயன்பாட்டை நீங்கள் பயன்படுத்தலாம் ஸ்டில் படங்களை அனிமேஷன் அவதாரங்களாக மாற்ற TokkingHeads , இது நபர் பேசுவது போல் தோன்றும் வகையில் உங்கள் சொந்த படத்தையும் ஆடியோவையும் பதிவேற்ற அனுமதிக்கிறது.

பெரும்பாலும், இது பொழுதுபோக்கு மற்றும் வேடிக்கையாக இருக்கிறது, ஆனால் சிக்கல்களுக்கான சாத்தியமும் உள்ளது. யாருடைய உருவத்தையும் அந்த நபர் தான் பேசாத வார்த்தைகளை உச்சரித்ததைப் போன்ற தோற்றத்தை உருவாக்குவது எவ்வளவு எளிது என்பதை இது காட்டுகிறது.

AI டீப்ஃபேக்கால் ஏமாறாதீர்கள்

டீப்ஃபேக்குகளை மிகக் குறைந்த செலவில் விரைவாகப் பயன்படுத்த முடியும் மற்றும் குறைந்த அளவிலான நிபுணத்துவம் அல்லது கம்ப்யூட்டிங் சக்தி தேவைப்படுகிறது. அவை உருவாக்கப்பட்ட படம், குரல் குளோன் அல்லது AI-உருவாக்கிய படங்கள், ஆடியோ மற்றும் உரை ஆகியவற்றின் வடிவத்தை எடுக்கலாம்.

டீப்ஃபேக்கை உருவாக்குவது மிகவும் கடினமாகவும் உழைப்பு மிகுந்ததாகவும் இருந்தது, ஆனால் இப்போது, ​​ஏராளமான AI பயன்பாடுகள் இருப்பதால், டீப்ஃபேக்குகளை உருவாக்கப் பயன்படுத்தப்படும் கருவிகளை எவருக்கும் அணுகலாம். AI டீப்ஃபேக் தொழில்நுட்பம் மேலும் முன்னேறி வருவதால், அது ஏற்படுத்தும் ஆபத்துகளை உன்னிப்பாகக் கவனித்துக் கொள்வது மதிப்பு.