மருத்துவ ஆலோசனைக்கு ChatGPT ஐ ஏன் நம்பக்கூடாது என்பதற்கான 5 காரணங்கள்

மருத்துவ ஆலோசனைக்கு ChatGPT ஐ ஏன் நம்பக்கூடாது என்பதற்கான 5 காரணங்கள்
உங்களைப் போன்ற வாசகர்கள் MUO ஐ ஆதரிக்க உதவுகிறார்கள். எங்கள் தளத்தில் உள்ள இணைப்புகளைப் பயன்படுத்தி நீங்கள் வாங்கும் போது, ​​நாங்கள் ஒரு இணை கமிஷனைப் பெறலாம். மேலும் படிக்க.

ChatGPT—OpenAI ஆல் உருவாக்கப்பட்ட ஒரு செயற்கை நுண்ணறிவு (AI) சாட்போட்— மருத்துவ ஆலோசனைக்கான கோரிக்கைகள் உட்பட பல எளிய மற்றும் கடினமான கேள்விகளுக்கு பதில் அளிப்பதற்கான ஆல் இன் ஒன் கருவியாக மாறியுள்ளது. இது மருத்துவ கேள்விகளுக்கு பதிலளிக்கலாம் மற்றும் யுனைடெட் ஸ்டேட்ஸ் மெடிக்கல் லைசென்சிங் எக்ஸாம் (USMLE), ஆனால் அது மருத்துவமனையில் ஒரு டாக்டருடன் சந்திப்பை மாற்ற முடியாது.





அன்றைய வீடியோவை உருவாக்கவும் உள்ளடக்கத்துடன் தொடர உருட்டவும்

ChatGPT முன்னேறும்போது, ​​சுகாதாரத் துறையை முழுமையாக மாற்றும் ஆற்றலைக் கொண்டுள்ளது. சுகாதார அமைப்புகளுடன் ஒருங்கிணைக்கப்படும் போது, ​​அது நோயாளிகளின் கவனிப்புக்கான அணுகலை மேம்படுத்தலாம் மற்றும் மருத்துவர்களின் பணித் திறனை அதிகரிக்கலாம். இருப்பினும், இது AI அடிப்படையிலானது என்பதால், அதன் சாத்தியமான ஆபத்துகள் குறித்து பல கவலைகள் உள்ளன.





1. ChatGPT வரையறுக்கப்பட்ட அறிவைக் கொண்டுள்ளது

  பன்றி-இதயம்

ChatGPTக்கு எல்லாம் தெரியாது. OpenAI இன் படி, ChatGPT குறைந்த அறிவைக் கொண்டுள்ளது, குறிப்பாக செப்டம்பர் 2021 க்குப் பிறகு என்ன நடந்தது என்று வரும்போது.





ChatGPT க்கு தேடுபொறிகள் அல்லது இணையத்திற்கான நேரடி அணுகல் இல்லை. புத்தகங்கள், இணையதளங்கள் மற்றும் பிற நூல்கள் உட்பட பல ஆதாரங்களில் இருந்து ஏராளமான உரைத் தரவைப் பயன்படுத்தி இது பயிற்சியளிக்கப்பட்டது. அது வழங்கும் தரவு 'தெரியாது'. அதற்குப் பதிலாக, ChatGPT தான் படித்த உரையைப் பயன்படுத்தி, பயன்படுத்த வேண்டிய சொற்கள் மற்றும் எந்த வரிசையில் கணிப்புகளை உருவாக்குகிறது.

எனவே, மருத்துவத் துறைகளின் முன்னேற்றங்கள் குறித்த தற்போதைய செய்திகளைப் பெற முடியாது. ஆம், பன்றி-மனித இதய மாற்று அறுவை சிகிச்சை அல்லது மருத்துவ அறிவியலில் சமீபத்திய முன்னேற்றங்கள் பற்றி ChatGPTக்கு தெரியாது.



2. ChatGPT தவறான தகவலை உருவாக்கலாம்

நீங்கள் கேட்கும் கேள்விகளுக்கு ChatGPT பதிலளிக்க முடியும், ஆனால் பதில்கள் துல்லியமாகவோ அல்லது பக்கச்சார்பானதாகவோ இருக்கலாம். ஒரு படி PLoS டிஜிட்டல் ஹெல்த் ஆய்வு, ChatGPT அனைத்து USMLE தேர்வுகளிலும் குறைந்தது 50% துல்லியத்துடன் நிகழ்த்தப்பட்டது. சில அம்சங்களில் இது 60% தேர்ச்சி வரம்பை தாண்டியிருந்தாலும், பிழையின் சாத்தியம் இன்னும் உள்ளது.

மேலும், ChatGPTயைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் அனைத்து தகவல்களும் உண்மையானவை அல்ல. சரிபார்க்கப்படாத அல்லது பக்கச்சார்பான தகவல்களின் அடிப்படையிலான பதில்கள் தவறானதாகவோ அல்லது காலாவதியானதாகவோ இருக்கலாம். மருத்துவ உலகில், தவறான தகவல் ஒரு உயிரைக் கூட இழக்க நேரிடும்.





ChatGPT ஆல் சுயாதீனமாக ஆய்வு செய்யவோ அல்லது உள்ளடக்கத்தை சரிபார்க்கவோ முடியாது என்பதால், அது உண்மைக்கும் புனைகதைக்கும் இடையே வேறுபாடு காட்ட முடியாது. ஜர்னல் ஆஃப் தி அமெரிக்கன் மெடிக்கல் அசோசியேஷன் (ஜமா) உட்பட மதிப்பிற்குரிய மருத்துவ இதழ்கள், இதழில் வெளியிடப்பட்ட அறிவியல் ஆய்வுகளை மனிதர்கள் மட்டுமே எழுத முடியும் என்று கடுமையான விதிமுறைகளை நிறுவியுள்ளன. அதன் விளைவாக, ChatGPT இன் பதில்களை நீங்கள் தொடர்ந்து உண்மையைச் சரிபார்க்க வேண்டும் .

உலகின் சிறந்த சமையல் விளையாட்டுகள்

3. ChatGPT உங்களை உடல் ரீதியாக பரிசோதிக்காது

மருத்துவ நோயறிதல் அறிகுறிகளை மட்டுமே சார்ந்தது அல்ல. நோயாளியின் உடல் பரிசோதனை மூலம் நோயின் வடிவம் மற்றும் தீவிரம் பற்றிய நுண்ணறிவுகளை மருத்துவர்கள் பெறலாம். நோயாளிகளைக் கண்டறிவதற்காக, மருத்துவர்கள் இன்று மருத்துவ தொழில்நுட்பங்கள் மற்றும் ஐந்து புலன்கள் இரண்டையும் பயன்படுத்துகின்றனர்.





ChatGPT ஒரு முழுமையான மெய்நிகர் சோதனை அல்லது உடல் பரிசோதனை செய்ய முடியாது; நீங்கள் செய்திகளாக வழங்கும் அறிகுறிகளுக்கு மட்டுமே அது பதிலளிக்க முடியும். நோயாளியின் பாதுகாப்பு மற்றும் கவனிப்புக்கு, உடல் பரிசோதனையில் பிழைகள் அல்லது உடல் பரிசோதனையை முற்றிலும் புறக்கணிப்பது தீங்கு விளைவிக்கும். ChatGPT உங்களை உடல்ரீதியாக பரிசோதிக்காததால், அது தவறான நோயறிதலை வழங்கும்.

4. ChatGPT தவறான தகவலை வழங்க முடியும்

  ChatGPT தவறான பதில்

என்ற சமீபத்திய ஆய்வு மேரிலாந்து பல்கலைக்கழக மருத்துவப் பள்ளி மார்பக புற்றுநோய் பரிசோதனைக்கான ChatGPT இன் ஆலோசனையில் பின்வரும் முடிவுகள் காணப்பட்டன:

'எங்கள் அனுபவத்தில் ChatGPT சில சமயங்களில் அதன் கூற்றுக்களை ஆதரிக்க போலியான பத்திரிக்கை கட்டுரைகள் அல்லது சுகாதார கூட்டமைப்புகளை உருவாக்குகிறது என்று பார்த்தோம்.' - பால் யி எம்.டி., UMSOM இல் கண்டறியும் கதிரியக்கவியல் மற்றும் அணு மருத்துவத்தின் உதவிப் பேராசிரியர்

எங்கள் ChatGPT சோதனையின் ஒரு பகுதியாக, ஆழ் மனதில் உள்ள விஷயத்தை உள்ளடக்கிய புனைகதை அல்லாத புத்தகங்களின் பட்டியலை நாங்கள் கோரினோம். இதன் விளைவாக, ChatGPT டாக்டர். குஸ்டாவ் குன் எழுதிய 'தி பவர் ஆஃப் தி அன்கான்சியன் மைண்ட்' என்ற போலி புத்தகத்தை உருவாக்கியது.

கூகுள் டாக்ஸில் வாட்டர்மார்க் நுழைப்பது எப்படி

அந்தப் புத்தகத்தைப் பற்றி நாம் விசாரித்தபோது, ​​அது தான் உருவாக்கிய 'கருமான' புத்தகம் என்று பதிலளித்தது. நீங்கள் மேலும் விசாரிக்கவில்லை என்றால், ஒரு பத்திரிகை கட்டுரை அல்லது புத்தகம் தவறானதா என்பதை ChatGPT உங்களுக்குத் தெரிவிக்காது.

5. ChatGPT என்பது ஒரு AI மொழி மாதிரி

  ChatGPT மருத்துவம்

மொழி மாதிரிகள் நோயாளியின் நிலையை ஆராய்வது அல்லது படிப்பதை விட உரையை மனப்பாடம் செய்து பொதுமைப்படுத்துவதன் மூலம் செயல்படுகின்றன. மொழி மற்றும் இலக்கணத்தின் அடிப்படையில் மனித தரங்களுடன் பொருந்தக்கூடிய பதில்களை உருவாக்கினாலும், ChatGPT இன்னும் பல சிக்கல்களைக் கொண்டுள்ளது , மற்ற AI போட்களைப் போலவே.

ChatGPT உங்கள் மருத்துவருக்கு மாற்றாக இல்லை

சுகாதாரப் பாதுகாப்பு முடிவுகளில் இறுதி அழைப்பைச் செய்ய மனித மருத்துவர்கள் எப்போதும் தேவைப்படுவார்கள். நீங்கள் மருத்துவ ஆலோசனையைக் கேட்கும்போது உரிமம் பெற்ற சுகாதாரப் பயிற்சியாளரிடம் பேசுவதற்கு ChatGPT பொதுவாக அறிவுறுத்துகிறது.

ChatGPT போன்ற செயற்கை நுண்ணறிவு-இயங்கும் கருவிகள் மருத்துவரின் சந்திப்புகளைத் திட்டமிடவும், சிகிச்சைகளைப் பெறுவதில் நோயாளிகளுக்கு உதவவும் மற்றும் அவர்களின் உடல்நலத் தகவல்களைப் பராமரிக்கவும் பயன்படுத்தப்படலாம். ஆனால் அது ஒரு மருத்துவரின் நிபுணத்துவம் மற்றும் பச்சாதாபத்தின் இடத்தைப் பெற முடியாது.

உடல் ரீதியாகவோ அல்லது மன ரீதியாகவோ உங்கள் ஆரோக்கியத்தைக் கண்டறிய அல்லது சிகிச்சையளிக்க AI- அடிப்படையிலான கருவியை நீங்கள் நம்பக்கூடாது.