OpenAI nedávno oznámila spuštění ChatGPT Health, sekce známého chatbota navržená tak, aby lidem pomohla lépe pochopit a uspořádat jejich zdravotní historii. Projekt vychází z jednoduché reality – stále víc uživatelů se obrací na ChatGPT s prosbou o výklad výsledků, symptomů nebo dalších klinických dat. Cíl je nabídnout nástroj, který informace shromáždí, dá jim řád a pomůže z nich vyčíst souvislosti, což může usnadnit orientaci v dalším postupu péče.
ChatGPT Health například nabízí možnost propojit elektronickou zdravotní dokumentaci a některé zdravotní aplikace, aby bylo možné porovnávat data, testy a výsledky v čase a interpretovat je s odstupem. OpenAI zároveň zdůrazňuje, že služba nebude stanovovat diagnózy ani doporučovat léčbu. Má pomáhat navigovat konkrétní informace, vyjasnit pochybnosti a umožnit lidem přijít na konzultaci s lékařem lépe připravení.
Projekt byl podle firmy vyvíjen za přispění řady lékařů z různých oborů, aby odpovědi byly srozumitelné, opatrné a odpovídaly kontextu. Přístup bude zpočátku omezený na menší skupinu uživatelů, postupně by se měl rozšiřovat. Zdravotní konverzace mají probíhat v odděleném prostoru mimo klasické rozhraní ChatGPT a OpenAI uvádí, že pro citlivá data zavedla specifické ochrany. Například zdravotní informace se nemají používat k trénování jazykových modelů.
Co je na AI ve zdravotnictví nepřesvědčivé?
V minulém roce se v technologických a zdravotnických médiích objevila kauza systému umělé inteligence vyvíjeného Googlem, který při analýze snímků z CT mozku „vymyslel“ anatomickou strukturu, která neexistovala, a vytvořil tím zcela chybnou zprávu. Případ se stal symbolem limitů těchto technologií. I když mají velký potenciál, bez dostatečné opatrnosti a lidského dohledu mohou generovat zavádějící výsledky.
Velké firmy vyvíjející AI systémy, od OpenAI po Google, dlouhodobě tvrdí, že v budoucnu mohou tyto technologie lékařům pomáhat zpřesňovat a zvyšovat spolehlivost diagnóz. Přesto zůstává značná část vědecké komunity skeptická. Poukazuje na současná omezení AI a na rizika spojená s předčasným nebo nedostatečně kontrolovaným používáním.
Proč ChatGPT Health a podobné nástroje lékaři nemají rádi?
V minulosti některé AI systémy pro analýzu obrazové diagnostiky dokázaly dosáhnout pozoruhodných výsledků a zachytit detaily, které specialistům unikly. Jejich fungování ale není vždy spolehlivé. Umělá inteligence může halucinovat, tedy vytvářet chybné nebo nedostatečně podložené interpretace, což zvyšuje riziko nepřesného posouzení.
Velké technologické firmy vyvíjející nejznámější modely, jako je ChatGPT nebo Gemini, proto zdůrazňují, že tyto nástroje mají být podporou pro lékaře, ne náhradou. Konečná odpovědnost za diagnózu a léčbu má zůstat vždy na zdravotnících. Vývojáři zároveň upozorňují na rychlé zlepšování přesnosti AI za poslední roky ve srovnání s mírou lidské chyby v medicíně, která se dlouhodobě drží na stejné úrovni a kterou by bylo možné alespoň částečně snížit pomocí AI.
Potenciál systémů typu ChatGPT Health tedy existuje a některé příklady jsou slibné. Část vědecké komunity ale dál doporučuje opatrnost a varuje před závodem v AI podobným tomu, který už proběhl v jiných oborech. Volá po mnohem pečlivějším načasování a přísnějších kritériích pro zavádění těchto nástrojů do praxe.
Týdenní horoskop 13.10. do 19.10.2025
Office jóga: Jak (nenápadně) procvičit tělo v kanceláří
Suchý leden je nejviditelnější předsevzetí roku 2026