Bez mrknutí oka vám dnes AI naservíruje prostou lež, kterou zabalí do lákavých slovíček, které zní velice uvěřitelně. Horší je, když si to neověříte a slepě to odevzdáte jako svoji práci. Říká se to halucinace. A ty vám mohou zavařit, ať už s AI řešíte práci či osobní život.

Možná se to stalo přímo vám. Možná se vám někdo svěřil, že chybu od AI poslal dál. Možná jste slyšeli o tom, že jeden právník předložil rešerši z ChatuGPT jako příklady kauz. Jenže byly smyšlené.
Proč to ale generativní umělé inteligence dělají? Myslím tím halucinace. Není to chyba softwaru, je to jeho vlastnost. V tomto článku si vysvětlíme, proč to modely dělají, a hlavně si ukážeme 4 tvrdé techniky přímo z oficiálních manuálů gigantů jako OpenAI a Anthropic, jak to zastavit a dostat z AI jen spolehlivá fakta.
Co je to vlastně halucinace
Mezi lidmi koluje jeden velký mýtus: myslíme si, že AI má někde uvnitř „databázi pravdy“, do které sahá, podobně jako vyhledávač do Wikipedie.
Realita je jiná. Velké jazykové modely (LLM) jsou v podstatě jen extrémně pokročilé prediktivní klávesnice v mobilu. Nehledají absolutní pravdu. Jejich úkolem je matematicky hádat další slovo, které nejlépe pasuje do věty.
Proč tedy AI lže? Umělá inteligence je naprogramována tak, aby vám vyhověla a pomohla. Pokud odpověď nezná (nebo ji nemá v datech, na kterých se učila), raději si ji logicky poskládá a vymyslí, než aby vás zklamala mlčením. Zní u toho neuvěřitelně sebejistě z jednoho prostého důvodu: pravděpodobnost, že po sobě ta konkrétní slova následují, matematicky perfektně sedí.
Naučte se tedy jedno pravidlo: Plynulý text není automaticky ověřený fakt. Je to jen skvělá gramatika.
Naučte rovnou svoji umělou inteligenci psát jako vy. Přečtěte si náš další článek, který vás naučí vytvořit si svého vlastního klona.
Proč halucinace vznikají?
Halucinace nejsou vždy jen chyba vašeho špatného promptu. Příčiny se dělí do tří vrstev:
- Příčiny na úrovni zadání (váš prompt): Dáte AI nejasné zadání, smícháte instrukce s podklady nebo ji nutíte odpovědět na něco, k čemu nemá kontext. Tady vzniká 90 % chyb, které můžete ovlivnit.
- Příčiny na úrovni dat (trénink): Model byl trénován na datech z internetu. Internet je plný protichůdných informací, fám a polopravd. Pokud data chybí, model se je snaží doplnit z kontextu.
- Příčiny na úrovni generování (matematika): Jak už víme, model hádá další slovo. Někdy se zkrátka matematicky „utrhne“ a vybere slovo, které dává gramatický smysl, ale fakticky je to nesmysl.
Rozlište typy halucinací
Ne každá halucinace je stejná. Vždyť víte, že ve vaší práci taky musíte přesně vědět, jaký typ chyby model udělal, abychom ji mohli opravit:
→ Halucinace v přepisu audia: Zvláštní kategorie. Nástroje na přepis občas „uslyší“ a zapíší větu, která v nahrávce nikdy nezazněla (dělá to například i populární Whisper). Zde platí: U citací vždy kontrolujte originální audio!
→ Faktická halucinace: Model si vymyslí datum, jméno nebo existenci firmy. (Nejčastější, když po něm chcete historická data bez podkladů).
→ Halucinace z doplňování mezer: Zadáte mu úkol, ale nedáte mu dost informací. Model se snaží být užitečný a mezery si logicky domyslí.
→ Halucinace z dlouhého kontextu: Nahrajete 50 stran textu. Model v půlce „zapomene“ část vašich instrukcí a začne si vymýšlet shrnutí, které v textu vůbec není.

Mapa rizik: Kdy je šance na halucinaci nejvyšší?
Zpozorněte, pokud po AI chcete:
→ Složitý úkol s mnoha podmínkami, u kterého chcete okamžitý výsledek bez toho, abyste AI donutili si udělat plán.
→ Čerstvé informace z dneška bez vložení odkazu na zdroj.
→ Lokální reálie a přesné české právní formulace (modely mají nejvíc dat z anglosaského prostředí).
→ Shrnutí dlouhého dokumentu, aniž byste vizuálně oddělili, co je vaše instrukce a co je vložený text.
4 oficiální zbraně proti halucinacím
Co tedy doporučují sami tvůrci modelů OpenAI a Anthropic? Odložte „magické“ prompty z internetu a držte se těchto čtyř tvrdých technik, které reálně snižují chybovost.
Zbraň A: Dejte jí text a vynuťte citace (taktika kniha na stole)
Obě společnosti důrazně doporučují u faktických úkolů používat referenční texty. Nedovolte AI sahat do „vlastní hlavy“.
- Šablona: Nahrajte text a přidejte pravidlo: „Odpovídej POUZE na základě dodaného textu. Za každým tvrzením uveď v závorce přesnou citaci věty, ze které jsi čerpal.“ Jakmile musí model citovat konkrétní větu z vašich dat, nemá prostor pro fantazii.
Zbraň B: Dovolte jí říct „nevím“ (taktika únikový východ)
Modely jsou trénované, aby odpovídaly za každou cenu. Když jim nedáte možnost nevědět, budou raději lhát.
- Šablona: Naučte se přidávat na konec promptu magickou klauzuli: „Pokud odpověď v dodaném textu nenajdeš, nesnaž se ji domyslet. Jednoduše napiš: ‚Tato informace v podkladech není.’“
Zbraň C: Donuťte ji myslet nahlas (chain of thought)
Čím komplexnější úkol bez přípravy jí dáte, tím větší je šance na halucinaci. Výborně zde funguje princip postupného promptování.
- Šablona: Rozbijte úkol na kroky. „Nejdříve si analyzuj vložený text, vypiš si klíčová fakta do odrážek a teprve z nich mi sestav finální e-mail pro klienta.“ Nebo: „Projdi si podklady o (vaše téma). Navrhni osnovu článku. Napiš článek o 1,5 normostrany.“ Zpomalením a rozfázováním úlohy klesá chybovost o desítky procent.
Zbraň D: Omezte jí prostor rolí (system prompt)
Když dáte AI roli přísného editora nebo auditora, aktivujete v její neuronové síti data spojená s přesností a kontrolou.
Šablona: „Chovej se jako přísný faktický auditor. Tvojí jedinou prioritou je pravdivost a ověřitelnost faktů. Pokud si nejsi na 100 % jistý, informaci zcela vynech.“
Naučte se pokročilejší techniky promptování a používejte značky. Přečtěte si o tom náš další článek.
Bezpečnostní vložka
Anthropic i OpenAI se shodují na jedné zásadní věci pro zamezení halucinacím i bezpečnostním rizikům: Musíte oddělit vaše instrukce od vkládaných dat. Pokud zkopírujete článek z internetu a napíšete „Shrň mi tento text: [vložený text]“, koledujete si o malér. Vložený text může obsahovat skryté instrukce (takzvaný prompt injection), které vaši AI zmatou. Model navíc často nepozná, kde končí zadání a začíná článek.
„Shrň mi text, který se nachází mezi značkami. ZDE JE VÁŠ TEXT “.
Řešení: Používejte XML značky. Model Claude je na ně přímo trénovaný.
Kdy jsou halucinace vlastně super?
Je fér si říct, že halucinace není vždycky jenom zlo. Ve skutečnosti existují situace, kdy ji naopak zoufale potřebujete! Kde to je?
- Při brainstormingu nových nápadů.
- Při kreativním psaní příběhů.
- Při tvorbě nečekaných metafor nebo hledání nových, bláznivých úhlů pohledu pro marketingové kampaně.
To, čemu u tvrdých faktů říkáme „nebezpečná halucinace“, nazýváme v kreativním procesu „geniální představivost“. Jde jen o to, jaký úkol zrovna řešíte.
📌 FAQ: Nejčastější dotazy o halucinacích AI (Pro rychlou orientaci)
→ Co jsou halucinace v AI? Je to stav, kdy generativní model umělé inteligence vytvoří přesvědčivě a plynule znějící odpověď, která se ale nezakládá na pravdě, faktech nebo dodaných podkladech. Zkrátka si vymýšlí.
→ Proč ChatGPT halucinuje? ChatGPT není vyhledávač, který čte ověřené články. Je to jazykový model, který matematicky predikuje další slova. Pokud mu chybí data, logicky si je „dohodne“ podle toho, jak by věta měla gramaticky a smysluplně znít.
→ Jak poznat, že je odpověď smyšlená? Laickým okem velmi těžko, halucinace zní extrémně sebevědomě. Jediná obrana je vyžadovat od modelu přesné citace z vámi dodaných zdrojů, nebo si vyžádat prokliky na weby (pokud model podporuje live vyhledávání).
→ Jaký je rozdíl mezi chybou a halucinací? Chyba je, když model špatně spočítá matematický příklad, protože mu chybí logický krok. Halucinace je, když si model s naprostou jistotou vymyslí knihu, kterou nikdy nikdo nenapsal.
→ Jak funguje ověřování odpovědí krokem navíc? Jde o techniku „chain of thought“ (nebo CoVe – chain of verification). Model se nepřinutí k okamžité odpovědi, ale nejprve si musí vypsat fakta, stanovit plán, provést vnitřní kontrolu a teprve z těchto ověřených střípků generuje finální text pro vás. Dramaticky to snižuje chybovost.
Tři pravidla, která vás zachrání
Uložte si tato tři pravidla, díky kterým vaše práce s AI získá úplně novou spolehlivost:
- Vždy mu dejte „povolení nevědět“. Donuťte ho, ať se přizná, když informaci nenašel.
- AI je váš kreativní asistent, nikoliv vyhledávač faktů. Ptejte se jí na strukturu, ne na letopočty.
- Nikdy nenechte model odpovídat na přesná data bez dodaného kontextu. Vždy mu dejte podklady.
Související články
Naučte AI psát jako vy: 12 promptů pro digitálního klona
Jak upravit AI text, aby zněl jako, že ho napsal člověk
