Nastavení cookies
Jak se připravit na pacienta, který používá AI
← Zpět na vydání

Jak se připravit na pacienta, který používá AI

Pacienti dnes vedle „strýčka Googla“ stále častěji využívají i generativní AI (např. ChatGPT, Gemini…) k hledání informací o svém zdravotním stavu. Pacient tak může dorazit do ordinace už s hotovým „názorem AI“ – tedy s vlastní hypotézou diagnózy, návrhem léčby a někdy i konkrétní farmakoterapií. Dotazy bývají překvapivě dobře strukturované a znějí odborně. Právě spojení sebejistého tónu a dojmu odbornosti může pacienta snadno přivést k falešnému pocitu jistoty a někdy i k nebezpečným přesvědčením o závěrech, které mu AI předložila.

Mezi tím, co AI skutečně umí, a tím, co pacient očekává, zeje velká propast. Níže přinášíme přehled, jaké jsou možnosti a limity AI v medicíně, s jakými typickými problémy se můžeme setkat a jak jako lékaři na tyto situace reagovat.

Co umí a neumí umělá inteligence v medicíně AI dělá pokroky, ale nenahradí komplexní roli lékaře.  Modely jako GPT-4 prokazatelně zvládají obtížné testy (např. lékařské zkoušky USMLE) s úspěšností i nad 90 procent a nejnovější GPT-5 v některých standardizovaných testech dokonce překonal průměrné výsledky lidských lékařů. To svádí k dojmu, že AI „umí medicínu“. Realita klinické praxe je mnohem složitější než prostředí standardizovaných testů. Skvělý výsledek AI v testu ještě neznamená, že „umí medicínu“. Model dokáže poměrně přesně a často i bez výrazných halucinací odpovídat na učebnicové otázky či citovat doporučené postupy – zejména pokud má předem vymezený okruh odbornosti a nahranou dokumentaci, z níž vychází. V reálném nasazení v rámci komplexní a individuální péče o konkrétního pacienta však dnešní AI připravena není. Současné modely selhávají zejména u vícekrokových problémů, komplexních klinických situací a tam, kde je nutné myslet „out of the box“. Neznají naše pacienty, neumějí jejich potíže zasadit do kontextu a jejich znalosti jsou pouze statistickým odrazem tréninkových dat. Čím specifičtější a komplexnější je zadání, tím častěji se objevují halucinace. AI může být užitečným doplňkem, ale nenahradí lidský úsudek ani odpovědnost lékaře.

Typické problémy AI: na co si dát pozor Neaktuální informace: Některé veřejné AI chatboty nemají přístup k nejnovějším poznatkům. Léčebné postupy se ale mění rychle – co platilo před pár lety, dnes už pravda být nemusí. Pacient tak může dostat zastaralé nebo překonané doporučení. Halucinace a  nepřesnosti:  Modely mohou „vymýšlet“ věrohodně znějící, ale nepravdivé informace. AI někdy smíchá realitu s fikcí – přiřkne pacientovi diagnózu, kterou nemá, nebo si dokonce vymyslí citaci či odkaz na neexistující článek. Tyto halucinace vznikají, protože model generuje pravděpodobně znějící text bez skutečného ověření faktů. Výsledkem může být velmi přesvědčivý nesmysl. Chybějící zdroje: Na rozdíl od vyhledávače AI typicky neuvede, odkud své tvrzení bere. Pacient tak nemá možnost ověřit si, zda informace pocházejí z renomované odborné stránky, nebo jestli ji model „cucá z prstu“. Některé pokročilé nástroje už umožňují vyžádat si odkazy jen z lékařské literatury, ale běžný uživatel tuto možnost nevyužije. Přesvědčivý tón: Generativní AI je trénována, aby odpovídala plynule a sebejistě – bez ohledu na pravdivost obsahu. Pacient, zejména laik, má proto přirozený sklon věřit sebevědomému podání. AI navíc snadno přizpůsobí styl na míru uživateli (empatii napodobí „perfektně“), čímž si získá jeho důvěru. Pokud AI pacienta v jeho omylu utvrdí, bývá pak velmi obtížné ho přesvědčit o opaku. Falešná jistota a odklad péče: Obzvlášť nebezpečné je, když se pacient na AI spoléhá v rozhodování o závažných symptomech. Chatbot neumí posoudit naléhavost stavu konkrétního člověka. Přesto se stává, že pacient hledá „uklidnění“ u počítače, místo aby šel na vyšetření. To může mít fatální následky. Nebezpečná iluze „terapie“: AI může působit jako naslouchající partner, ale není terapeut. U zranitelných pacientů může prohlubovat bludy, izolaci a v krajním případě i vést k suicidálnímu jednání. Lékaři by měli upozornit, že AI nikdy nenahradí odbornou psychoterapii. Pacientům lze doporučit, aby si v nastavení chatbota předem zablokovali témata, o nichž s ním nemají mluvit. Ochrana důvěrných informací: Veřejně dostupné AI nástroje nejsou chráněny režimem lékařského tajemství. I samotní vývojáři (např. Sam Altman, CEO OpenAI) opakovaně zdůrazňují, že tyto systémy nejsou určeny pro práci s citlivými osobními údaji. Pacientům je proto nutné vysvětlit, že své zdravotní informace ani lékařské zprávy by do AI nástrojů vůbec neměli vkládat. Pokud tak přesto učiní, pak rozhodně pouze v anonymizované podobě.

Jak reagovat, když pacient přichází s „radou od AI“ Setkáte-li se s pacientem, který si ohledně svého stavu něco zjišťoval pomocí AI, je důležité zvolit správný přístup. Cílem je udržet důvěru, uznat pacientův aktivní přístup, ale zároveň uvést informace na pravou míru a ochránit pacienta před riziky. 1. Získejte kontext: Přátelsky se zeptejte, co přesně mu AI řekla a z čeho vycházela. Požádejte třeba: „Můžete mi ukázat tu odpověď?“ nebo „Jak jste AI svou otázku zadal?“ Pacient často ocení váš zájem. Vám to umožní posoudit, zda náhodou AI nepochopila dotaz špatně nebo neodpovídala na něco jiného, než pacient potřeboval. Také hned odhalíte případné halucinace v odpovědi. 2. Udržujte zdravou skepsi: Vysvětlete pacientovi, že AI je jen nástroj, ne vševědoucí autorita. Lidé někdy vnímají odpověď od AI jako objektivní pravdu, protože „to řekl počítač“. Uveďte to na pravou míru: „Tyhle systémy generují odpovědi z informací, které nasbíraly, ale negarantují jejich správnost. I výrobce upozorňuje, že se nemají brát jako lékařská rada.“ 3. Ukažte možnosti i limity AI: AI nezatracujte – pacient by mohl mít pocit, že jeho aktivita byla zbytečná. Raději ukažte, kde může být užitečná. AI se dá dobře využít k vysvětlení odborných pojmů, např.: když v laboratorní zprávě pacient uvidí zkratku CRP, může se AI zeptat, co to znamená. Na takové obecné dotazy obvykle odpovídá správně a její výstup nebývá nebezpečný.

Zároveň vysvětlete limity: • AI má typické slabiny (viz Typické problémy AI: na co si dát pozor). • Kvalita odpovědi závisí na tom, jak s AI komunikujeme. Obecně se AI snaží uživateli vyhovět – i za cenu, že si část odpovědi „domyslí“. Proto je důležité ptát se co nejkonkrétněji a srozumitelně. Čím konkrétnější a  detailnější dotaz, tím spíše dostaneme relevantní odpověď. Proto pacientovi doporučte, jak základně formulovat otázky (prompty), a odkažte ho na návody „Best practices‘‘ poskytované společnostmi, jejichž modely využívá. • Nahrávání nekvalitní fotografie lékařské zprávy do AI je typickým příkladem rizikového chování. Pacient tím vystavuje sebe i své údaje dvěma zásadním rizikům: jednak bez kontroly sdílí citlivá zdravotní data (např. rodné číslo či jméno – pokud to dělá na svém účtu, může si je AI spojit s jeho profilem, i když tato data zpráva neobsahuje), jednak zadává pro AI složitý úkol, který plýtvá výpočetní výkon, a vede tak k dalším aproximacím a nepřesnostem. Model musí nejprve obrázek převést do textu a při tom může části informací špatně přečíst nebo vynechat. Nemáme jistotu, jaký text AI skutečně přečetla, a na tento chybný základ pak naváže vlastními domněnkami. Výsledkem mohou být neúplné, zavádějící nebo přímo nebezpečné závěry. o Pokud se pacient přece jen rozhodne takto AI použít, měl by raději zprávu naskenovat nebo vyfotit kvalitně, oříznout pouze potřebný text bez citlivých údajů a nechat jej převést do textové podoby. Až s  takto získaným textem by měl dále pracovat a ideálně si ověřit, s jakou částí textu AI skutečně pracovala. Tento postup může sloužit například k  prvnímu „laickému překladu“ odborného textu, aby mu pacient lépe porozuměl. Nikdy však nenahrazuje následnou konzultaci s lékařem.

Praktické doporučení pro lékaře: • Poskytněte pacientovi konkrétní edukační materiály (např. brožuru či ověřený článek). • Pokud chce použít AI, doporučte mu vhodný nástroj – například NotebookLM, kam může vložit konkrétní vámi doporučený dokument, položit přesný dotaz a zároveň si zkontrolovat části, z nichž AI čerpala. • Zdůrazněte: „Vše, co se týká vašeho zdravotního stavu a léčby, je nutné vždy konzultovat s lékařem, nikoliv s AI.“

Dokumentujte vliv AI: Pokud bylo rozhodování pacienta ovlivněno radou AI (např. odklad péče), zaznamenejte to do dokumentace: „Pacient 24 h vyčkával na základě doporučení ChatGPT.“ V případě medicínsko-právního posuzování (např. při komplikaci) to poskytne jasné vysvětlení okolností.

Zneužití AI: nové výzvy pro lékaře Téma může působit okrajově, ale je důležité si uvědomit, že i ve zdravotnictví se s tímto fenoménem můžeme setkat. Generativní AI totiž umožňuje vznik zcela nových podvodných postupů a manipulací, na které musí být zdravotníci připraveni. Pacient „vyškolený“ AI a telemedicína: AI mohou využívat nejen lékaři, ale i pacienti – i s nečestným záměrem. Chatbot dokáže uživatele „natrénovat“, jak věrohodně předstírat symptomy nebo jak odpovídat na typické otázky k tématu. Pacient se sklonem k simulaci si tak může vytvořit konzistentní (byť smyšlený) příběh a AI navíc umí vygenerovat falešné lékařské zprávy či fotografie nálezů (např. kožního exantému). Obzvláště v telemedicíně mějte na paměti, že zaslané fotografie či videa nemusí být pravé. Například snímek kožního nálezu vytvořený AI může působit věrohodně, ale při bližším zkoumání mohou chybět přirozené rysy (póry, ochlupení) nebo se vzorce vyrážky opakují nepřirozeně. Pokud klinika neodpovídá obrázkům, požádejte o další snímky – v denním světle, z různých úhlů či s měřítkem, při pochybnostech trvejte na živém hovoru či osobní návštěvě. Varování před podvodníky: Rizika nekončí u pacientů. AI umožňuje vytvářet velmi věrohodné podvrhy i proti zdravotníkům. Už byly popsány případy, kdy podvodníci volali pacientům s klonovaným hlasem lékaře, aby vylákali peníze nebo citlivé údaje. Připomeňte proto pacientům: lékaři nikdy nepožadují po telefonu hesla, PIN kódy či platby. Podvod může mít i formu deepfake videí na internetu, kde lékař „doporučuje“ přípravky, které ve skutečnosti nikdy nepropagoval. Proto vždy ověřujte informace z více zdrojů a v případě pochybností doporučte pacientovi obrátit se přímo na svého lékaře.

AI-ready lékař  ‚‚AI-ready‘‘ lékař by měl mít několik klíčových kompetencí: 1. Rozumí základům fungování AI – ví, že se jedná o algoritmy strojového učení, zná možnosti a limity aplikovaných modelů nejen teoreticky, ale i prakticky v kontextu zdravotnictví a v této oblasti se pravidelně vzdělává. 2. Umí pacientovi srozumitelně vysvětlit přínosy i rizika AI – stává se tak učitelem digitální gramotnosti. Dokáže ukázat, kdy může AI pomoci, a kdy naopak uškodit. 3. Rozvíjí komunikační dovednosti – v době AI je lidský faktor ještě důležitější. Empatie, individuální přístup a pocit, že je pacient vyslyšen, mají zásadní hodnotu. AI může poskytnout informace, ale nikdy nenahradí lidskost a vztah lékaře s pacientem. 4. Spolupracuje napříč obory – AI v medicíně se dotýká nejen lékařů, ale i IT specialistů, právníků či managementu. Spolupráce zajišťuje, že řešení budou funkční, etická a bezpečná. Umělá inteligence se stala novým prvkem v komunikaci mezi lékařem a pacientem. Pacienti budou stále častěji přicházet s informacemi získanými z AI a úkolem lékaře je tyto podněty bezpečně zasadit do kontextu. AI může být užitečná například pro administrativu nebo rychlý přehled odborné literatury, ale to z ní nedělá plnohodnotného lékaře. Pacient si může přinést do ordinace „názor od AI“, avšak rozhodující slovo má vždy lékař – se svou zkušeností, znalostí kontextu a odpovědností. Doporučení AI mohou být inspirací, ale konečné rozhodnutí i odpovědnost za něj zůstávají vždy na lékaři.

← Zpět na vydání