
I en tid hvor store språkmodeller (LLM-er) som ChatGPT har fått mye oppmerksomhet, peker eksperter på at mindre, mer spesialiserte språkmodeller kan være nøkkelen til å forbedre helsesektoren. Fawad Butt, administrerende direktør i Penguin Ai, understreker at LLM-er ofte er trent på generelle internettdata, noe som kan begrense deres effektivitet i medisinske sammenhenger. Han argumenterer for at små språkmodeller (SLM-er), trent på spesifikke helsedata, kan gi mer presise og effektive løsninger.
SLM-er er designet for å håndtere spesifikke oppgaver innenfor helsesektoren, noe som gjør dem raskere, billigere og mer nøyaktige enn sine større motparter. Ved å bruke data fra kliniske notater, pasientjournaler og andre helserelaterte kilder, kan disse modellene forbedre kliniske arbeidsflyter, pasientkommunikasjon og beslutningsstøtte.
Flere selskaper og institusjoner har begynt å utvikle SLM-er for medisinske formål. For eksempel har Tietoevry Care rapportert en økning på 23 % i FoU-produktivitet ved bruk av generativ KI i sine helserelaterte programvareløsninger. Dette viser potensialet for SLM-er til å effektivisere og forbedre helsetjenester.
Samtidig advarer eksperter om at språkmodeller ikke er en universell løsning. Hossein Baharmand, førsteamanuensis ved Universitetet i Agder, påpeker at det er viktig å bruke riktig verktøy for riktig oppgave, og at språkmodeller ikke nødvendigvis er svaret på alle utfordringer i helsesektoren.
Til tross for disse utfordringene, er det en økende enighet om at små, spesialiserte språkmodeller kan spille en viktig rolle i fremtidens helsetjenester, ved å tilby mer presise og effektive løsninger skreddersydd for medisinske behov.