ESCMID
Kunstig intelligens stjal fokus på sidste dag af ESCMID Global
Udgivet:
Kommentarer (0)
Flere forskere har årets ESCMID præsenteret resultater, hvor kunstig intelligens er blevet brugt til klinisk brug. Selvom ChatGPT i nogle tilfælde rammer plet, er det for tidligt at stole fuldt på chatbottens svar, lød konklusionerne.
ESCMID: ChatGPT er endnu ikke sikkert nok til at vejlede i beslutninger vedrørende infektioner, og så har forskere identificeret forekomsten af antibiotikaresistente bakterier i kød fra supermarkeder. Dette var nogle af resultaterne fra præsentationer på sidste dag af ESCMID Global.
Ikke-tilberedt kød fra supermarkeder kan indeholde bakterier, der er resistente over for kritiske antibiotika.
Det viser et nyt studie, der er blevet løftet sløret for på den årlige kongres for European Congress of Clinical Microbiology and Infectious Diseases (ESCMID Global).
Studiet, der stammer fra Storbritannien, viser, at selvom de regulatoriske myndigheder i landet er gode til at sikre, at mængden af bakterier i kød, som bliver solgt med formålet at spise det, ikke overstiger givne tærskelværdier, bliver kødet ikke undersøgt for forekomsten af resistente bakterier, og det er et problem.
I studiet undersøgte forskerne forekomsten af colibakterier resistente over for kritiske antibiotika i 15 prøver af ikke-tilberedt kylling, 15 prøver af ikke-tilberedt oksekød, 15 prøver af ikke-tilberedt lam, 13 prøver at ikke-tilberedt svinekød og 15 prøver af kyllingebaseret hundefoder.
Fundne colibakterier blev undersøgt for resistens mod moxicillin, amoxicillin-clavulanate, cefotaxime, ciprofloxacin, spectinomycin and streptomycin, af hvilke flere betragtes som kritisk vigtige for menneskers helbred.
Undersøgelsens resultater var alarmerende.
100 pct. af prøverne med kylling indeholdt bakterier resistente over for spectinomycin og streptomycin. 47 pct. indeholdt bakterier resistente over for kritisk vigtige fluoroqionoloner.
For lam, gris og okse var tallene for spectomycin henholdsvis 27 pct., 38 pct. og 27 pct. Henholdsvis 40 pct., 38 pct. og 47 pct. indeholdt colibakterier resistente over for streptomycin, og 7 pct., 8 pct. og 13 pct. indeholdt colibakterier resistente over for fluroquinoloner.
Forskerne fandt også høj forekomst af resistente bakterier i hundefoder.
»Mens de fleste mennesker ved, at de kan få madforgiftning, hvis de ikke bruger ordentlig hygiejne, når de håndterer råt kød, er de fleste ikke klar over, at man også kan blive smittet med antibiotikaresistente opportunistiske patogener. Ejere, der fodrer deres hunde med råt hundefoder, er måske heller ikke klar over, at dette rå kød også indeholder disse patogener, og bruger måske ikke ordentlig hygiejne efter tilberedning af kødet og betragter ikke deres hund som en potentiel kilde til disse patogener, hvis den fodres råt,« fortæller forskerne i deres studie ifølge en pressemeddelelse udsendt fra ESCMID Global.
For tidlig at bruge ChatGPT i klinisk beslutningstagen
Et andet af de studier, der blev præsenteret data fra på sidste dag af ESCMID Global, omhandlede ChatGPT og brugen af kunstig intelligens til at understøtte diagnose og behandlingsvalg i komplekse kliniske situationer.
I studiet havde forskere sat ChatGPT op imod ESCMID-guidelines for at se, om ChatGPT kunne komme med præcise svar på nøglespørgsmål vedrørende diagnose og behandling af patienter med infektioner i hjernen (hjerneabscesser).
Det er for tidligt at stole på ChatGPT i forbindelse med kliniske beslutninger
Andrea De Vito, forsker, University of Sassari
Ud af 20 spørgsmål, som ChatGPT skulle besvare, og som forskere sammenlignede med guideliens på området, svarede ChatGPT korrekt og klart med en klarhed estimeret til at være på omkring 80 til 90 pct.
Modellen gav til gengæld ikke klare nok svar til at vejlede læger i behandlingsbeslutninger om at tilbageholde mikrobielle stoffer indtil operation og profylaktisk antiepileptisk behandling.
ChatGPT gav også to svar, der direkte var i modsætning til guidelines og kunne have udsat patienter for en helbredsrisiko.
F.eks. svarede ChatGPT på et spørgsmål vedrørende behandlingsvarighed med intravenøs antimikrobiel behandling med bakterielle hjerneabscesser, at behandlingen skulle være fire uger intravenøs behandling plus 12 uger oral behandling.
Her er anbefalingerne i guidelines, at den totale behandlingslængde ikke bør overstige seks til otte uger.
»Da de nøjagtige driftsprocedurer for ChatGPT forbliver uklare, spekulerer vi på, at selvom AI-modellen kan behandle store mængder data hurtigt, mangler den muligvis evnen til at klassificere og veje dataene korrekt baseret på deres videnskabelige kvalitet. Desuden er det stadig uklart, hvilke data der bruges til ChatGPT’s svar, da den ikke afslører kilderne til sine svar, hvilket risikerer, at der bruges tvivlsom litteratur,« fortæller en af forskerne bag studiet, Professor Mattias Klein fra LMU University Hospital Munich, Tyskland, i en pressemeddelelse.
ChatGPT er endnu ikke klog nok på infektioner
Et andet studie, hvor forskere havde undersøgt klinisk brug af ChatGPT, afslørede også manglerne ved brug af denne form for kunstig intelligens til at vejlede i behandlingsbeslutninger.
I studiet havde eksperter formuleret 72 spørgsmål vedrørende seks kliniske undersøgelser for antimikrobiel modtagelighed over for fire forskellige former for infektioner: betændelse i hjertet, lungebetændelse, blodforgiftning og mavetarminfektioner.
Spørgsmålene kunne enten besvares ja/nej eller krævede et længere svar.
Spørgsmålene var blandt andet:
»I tilfælde af nekrotiserende pancreatitis er antibiotikabehandling altid nødvendig?«
»Hos en patient med en bristet aortaaneurisme, der forårsager intraabdominal blødning, bør antibiotikabehandling påbegyndes så hurtigt som muligt?«
»Hvad er de vigtigste udfordringer ved behandling af intraabdominale infektioner forårsaget af multiresistente Acinetobacter baumannii?«
»Hvordan påvirker antibiotikas farmakokinetiske og farmakodynamiske egenskaber deres effektivitet ved behandling af endokarditis?«
Svarene fra ChatGPT blev af et blændet panel af internationale eksperter i behandling med antibiotika målt op mod svar fra fire specialister i infektionssygdomme for at bedømme hvert svars præcision.
Resultatet af undersøgelsen afslørede, at både eksperter og ChatGPT svarede rigtigt på nogenlunde 70 pct. af ja/nej-spørgsmålene.
ChatGPT svarede lidt bedre og mere uddybende på åbne spørgsmål, men var mindre præcis i svarene på de kliniske cases i studiet. Bl.a. kæmpede ChatGPT med spørgsmål vedrørende resistensmekanismer.
ChatGPT var også mindre præcis i forhold til valg af den korrekte antibiotikabehandling og valgte ofte ikke at anbefale udskrivelse af recepter på nyere former for antibiotika, herunder cefiderocol og imipenem/relebactam.
Ligeledes anbefalede ChatGPT også oftere længere behandling end det nødvendige.
»ChatGPT var god til at besvare faktuelle spørgsmål, og i nogle tilfælde klarede den sig bedre end lægerne. Men den havde svært ved at fortolke og anvende teorien og var derfor mindre præcis end lægerne, når det gjaldt om at anbefale, hvordan patienterne skulle behandles, især når det rigtige svar involverede nye behandlinger,« forklarer en af forskerne bag studiet, læge og forsker Andrea De Vito fra University of Sassari, Italien, i en pressemeddelelse, og uddyber:
»Det er for tidligt at stole på ChatGPT i forbindelse med kliniske beslutninger, men teknologien kan stadig være nyttige i nogle situationer som for eksempel ved at hjælpe med medicinsk uddannelse eller foreslå mulige diagnoser. Men det er vigtigt at huske, at læger altid skal træffe de endelige beslutninger om patientbehandling.«
Del artiklen: