5 skäl till varför du inte ska lita på ChatGPT för medicinsk rådgivning

5 skäl till varför du inte ska lita på ChatGPT för medicinsk rådgivning
Läsare som du hjälper till att stödja MUO. När du gör ett köp med hjälp av länkar på vår webbplats kan vi tjäna en affiliate-provision. Läs mer.

ChatGPT – en artificiell intelligens (AI) chatbot utvecklad av OpenAI – har blivit ett allt-i-ett-verktyg för att svara på många enkla och svåra frågor, inklusive förfrågningar om medicinsk rådgivning. Den kan svara på medicinska frågor och klara United States Medical Licensing Exam (USMLE), men den kan inte ersätta ett möte med en läkare på sjukhuset.





MAKEUSE AV DAGENS VIDEO SCROLL FÖR ATT FORTSÄTTA MED INNEHÅLL

I takt med att ChatGPT utvecklas har det potential att förvandla sjukvårdssektorn helt. När det integreras med hälsosystemen kan det förbättra patienternas tillgång till vård och öka läkarnas arbetseffektivitet. Men eftersom det är AI-baserat finns det flera farhågor om dess potentiella faror.





1. ChatGPT har begränsad kunskap

  Gris-till-hjärta

ChatGPT vet inte allt. Enligt OpenAI har ChatGPT begränsad kunskap, särskilt när det kommer till vad som hände efter september 2021.





ChatGPT har inte direkt tillgång till sökmotorer eller internet. Den tränades med hjälp av en stor mängd textdata från många källor, inklusive böcker, webbplatser och andra texter. Den 'vet' inte vilken data den levererar. ChatGPT använder istället text den har läst för att skapa förutsägelser om orden som ska användas och i vilken ordning.

Därför kan den inte få aktuella nyheter om utvecklingen inom medicinska områden. Ja, ChatGPT är omedvetet om hjärttransplantationen från gris till människa eller några andra mycket nyliga genombrott inom medicinsk vetenskap.



2. ChatGPT kan producera felaktig information

ChatGPT kan svara på frågorna du ställer, men svaren kan vara felaktiga eller partiska. Enligt a PLoS Digital Health studien utfördes ChatGPT med minst 50 % noggrannhet över alla USMLE-undersökningar. Och även om det överskred 60%-tröskeln i vissa aspekter, finns det fortfarande risk för fel.

Dessutom är inte all information som används för att träna ChatGPT autentisk. Svar baserade på overifierad eller potentiellt partisk information kan vara felaktiga eller inaktuella. Inom medicinens värld kan felaktig information till och med kosta ett liv.





Eftersom ChatGPT inte kan självständigt undersöka eller verifiera material, kan det inte skilja mellan fakta och fiktion. Respekterade medicinska tidskrifter, inklusive Journal of the American Medical Association (JAMA), har fastställt strikta regler som bara människor kan skriva vetenskapliga studier publicerade i tidskriften. Som ett resultat, du bör hela tiden faktakolla ChatGPT:s svar .

3. ChatGPT undersöker dig inte fysiskt

Medicinska diagnoser är inte enbart beroende av symtom. Läkare kan få insikter i mönstret och svårighetsgraden av en sjukdom genom en patients fysiska undersökning. För att diagnostisera patienter använder läkare idag både medicinsk teknik och de fem sinnena.





ChatGPT kan inte utföra en fullständig virtuell kontroll eller ens en fysisk undersökning; den kan bara svara på de symptom du tillhandahåller som meddelanden. För en patients säkerhet och vård kan fel vid fysisk undersökning – eller helt ignorera fysisk undersökning – vara skadligt. Eftersom ChatGPT inte undersökte dig fysiskt, kommer det att erbjuda en felaktig diagnos.

4. ChatGPT kan tillhandahålla falsk information

  ChatGPT falskt svar

En nyligen genomförd studie av University of Maryland School of Medicine på ChatGPT:s råd för bröstcancerscreening hittade följande resultat:

'Vi har sett i vår erfarenhet att ChatGPT ibland skapar falska tidskriftsartiklar eller hälsokonsortier för att stödja sina påståenden.' —Paul Yi M.D., biträdande professor i diagnostisk radiologi och nuklearmedicin vid UMSOM

Som en del av vårt testande av ChatGPT begärde vi en lista över fackböcker som täcker ämnet det undermedvetna. Som ett resultat producerade ChatGPT en falsk bok med titeln 'The Power of the Unconscious Mind' av Dr Gustav Kuhn.

hur man lägger instagram i kronologisk ordning

När vi frågade efter boken svarade den att det var en 'hypotetisk' bok som den skapade. ChatGPT kommer inte att berätta om en tidskriftsartikel eller bok är falsk om du inte frågar mer.

5. ChatGPT är bara en AI-språkmodell

  ChatGPT Medical

Språkmodeller fungerar genom att memorera och generalisera text snarare än att undersöka eller studera en patients tillstånd. Trots att de genererar svar som matchar mänskliga standarder när det gäller språk och grammatik, ChatGPT innehåller fortfarande ett antal problem , ungefär som andra AI-robotar.

ChatGPT är inte en ersättning för din läkare

Mänskliga läkare kommer alltid att behövas för att göra den sista uppmaningen om sjukvårdsbeslut. ChatGPT rekommenderar vanligtvis att du pratar med en legitimerad läkare när du ber om medicinsk rådgivning.

Artificiell intelligens-drivna verktyg som ChatGPT kan användas för att boka läkarbesök, hjälpa patienter att ta emot behandlingar och underhålla deras hälsoinformation. Men det kan inte ersätta en läkares expertis och empati.

Du bör inte lita på ett AI-baserat verktyg för att diagnostisera eller behandla din hälsa, vare sig den är fysisk eller mental.