Алатките за вештачка интелигенција, како што е популарниот ChatGPT, не се добри за дијагностицирање, покажа студија објавена денеска, додека медицинските придобивки од вештачката интелигенција се испитуваат низ целиот свет.
Студијата, објавена во списанието Nature Medicine и спроведена на 1.298 луѓе во Велика Британија, откри дека неколку модели на вештачка интелигенција - ChatGPT, Llama (Meta) или Command R+ - не покажале подобри резултати од едноставно пребарување на интернет кога пациентот прашал за неговите симптоми.
„Има голема возбуда околу моделите на вештачка интелигенција, но тие едноставно не се подготвени да ги заменат лекарите“, изјави Ребека Пејн, истражувач на Универзитетот во Оксфорд и коавтор на студијата.
Учесниците во студијата всушност не биле болни. Тие учествувале во еден вид игра со улоги: истражувачите им дале десет различни групи симптоми за кои постои консензус во медицинската заедница за соодветната дијагноза.
Само една третина од учесниците добиле точна дијагноза. Ова не е подобро отколку во групата што мораше да се задоволи со класично пребарување на интернет.
Сепак, некои студии покажаа дека ChatGPT и другите модели можат успешно да ги положат медицинските испити: кога се ставаат во улога на студент по медицина и се соочуваат, на пример, со прашања со повеќекратен избор, системите со вештачка интелигенција добро се справуваат.
Сепак, оваа нова студија покажува дека ситуацијата се менува кога станува збор за интеракција со реални луѓе. Имено, тие можат да бидат недоволно прецизни во опишувањето на нивните симптоми и да не ги обезбедат сите клучни елементи, велат истражувачите.
Студијата е дел од поголема дебата за потенцијалниот придонес на вештачката интелигенција во однос на медицинските информации, со оглед на тоа што во многу земји, вклучително и развиените, луѓето честопати мора да чекаат долго за да видат лекар.
Во Франција, Високиот орган за здравство (HAS) наскоро треба да издаде изјава за придобивките од директно користење на вештачката интелигенција за пациентите. До крајот на 2025 година, веќе процени дека овие алатки би можеле да им помогнат на здравствените работници ако се користат разумно.
Истражувањето објавено денес има некои ограничувања, како што е методологијата базирана на фиктивни сценарија. Користените модели се исто така во голема мера заменети со поефикасни верзии.
Но, „ова е многу важна студија која истакнува дека четботовите претставуваат реални медицински ризици за пошироката јавност“, изјави за AFP Дејвид Шо, биоетичар на Универзитетот во Мастрихт во Холандија.