10 věcí, které s AI děláte špatně. A jak to dělat lépe

Chcete vědět, jaké chyby lidé při práci s AI dělají? Tak tady to máte na stříbrném podnose. Tvrdá fakta o tom, proč tyto chyby blokují vaši efektivitu, a hlavně ověřené postupy, jak to dělat správně. Žádná dojmologie, jen data z oficiálních příruček lídrů na trhu.

Žena je smutná, protože pracuje s AI špatně

Otevřete svoji oblíbenou umělou inteligenci, zadáte úkol a čekáte zázrak. Místo něj ale dostanete nudný, robotický text, faktickou chybu nebo výstup, který se nedá použít. A tak se s ní začnete dohadovat, přepisujete zadání, ztrácíte čas a nakonec si řeknete, že byste si to rychleji napsali sami.

Problém ale většinou není v samotném nástroji. Umělá inteligence není kouzelná hůlka, je to specifický software. A pokud s ním komunikujete špatně, dostanete špatné výsledky.

1. Používáte ChatGPT jako Google a berete plynulý text jako fakt

Tohle je absolutně nejčastější omyl. Lidé do AI píšou heslovitě jako do vyhledávače a rovnou po ní chtějí lokální nebo čerstvé informace bez toho, aby jí dodali jakýkoliv zdroj. Když pak model sebejistě a plynule odpoví, uživatelé to automaticky berou jako ověřený fakt.

Proč je to špatně: AI nic nevyhledává v rejstříku jako Google, ačkoliv některé modely umí webové vyhledávání nebo práci se zdroji. Je to generativní jazykový model, který skládá odpověď podle pravděpodobností. Z toho plyne ten nejčastější průšvih: může se stát, že zní neuvěřitelně přesvědčivě i ve chvíli, kdy nemá žádnou oporu v realitě. A nakonec je to jenom proto, že bez zdrojů prostě může halucinovat.

💡 Pikoška z praxe: Technologický gigant IBM před tímto neduhem přímo varuje. Upozorňuje, že falešné výstupy (takzvané halucinace) mohou lidi snadno zmást a šířit se v navazujících textech, protože vypadají jako normální ověřené informace. Druhý tvrdý bezpečnostní rámec, NIST AI RMF, zase řeší rizika důvěry a varuje, že lidé umělé inteligenci často přisuzují mnohem větší objektivitu a spolehlivost, než si reálně zaslouží.

Co s tím: Plynulá věta není důkaz faktičnosti, je to jen dobrý styling. Sebejistota modelu není signál aktuálnosti. Proto je potřeba kontrola nebo dodání zdroje. Kde záleží na naprosté přesnosti, vždy dodávejte do chatu vlastní zdrojový dokument. Vynuťte si od AI kontrolovatelný výstup, vyžadujte přesné citace z vašich dodaných podkladů nebo chtějte jasný seznam předpokladů, ze kterých vychází.

Naučte rovnou svoji umělou inteligenci psát jako vy. Přečtěte si náš další článek, který vás naučí vytvořit si svého vlastního klona.

2. Trpíte přehnanou slušností

My Češi jsme zvyklí psát do chatu: „Dobrý den, mohl bys mi prosím napsat článek? Děkuji předem.“ Je to z lidského hlediska sice milé, ale z hlediska efektivity naprosto zbytečné.

Proč je to špatně: Každé slovo, které do AI napíšete, se mění na takzvané tokeny. U krátkých promptů je ten dopad zanedbatelný. U dlouhých promptů může vadit. Zbytečná slova (pozdravy, prosby, poděkování) jen ředí váš kontext. Dlouhá zdvořilost nezvýší kvalitu výstupu, jen zvyšuje množství textu, které se musí zpracovat, a rozmazává to, co je skutečný úkol. Nejlépe fungují jasné a konkrétní instrukce, kde je definované, co je úspěch a v jakém formátu má být výstup.

💡 Pikoška z praxe: Víte, co na umělou inteligenci naopak funguje fantasticky místo zdvořilosti? Emocionální vydírání! Výzkumníci testovali takzvaný EmotionPrompt. Zjistili, že když k zadání přidáte věty jako: „Záleží na tom moje kariéra“ nebo „Vezmi si čas a zhluboka se nadechni“, modely prokazatelně vygenerují u více úloh mnohem přesnější a logičtější výstup. To samozřejmě není argument pro hraní divadla. Je to vědecký důkaz, že model silně reaguje na styl instrukce. V praxi tak často funguje lépe věta typu „postupuj pečlivě“ než zdvořilostní omáčka.

3. Ztrácíte se v negativních promptech

Lidé často AI diktují, co přesně nechtějí. Typické zadání vypadá takto: „Nepiš to nudně. Nepoužívej odborná slova. Nedělej to dlouhé.“

Proč je to špatně: Negace v zadání bývá méně spolehlivá než pozitivní popis. Často funguje lépe říct, co má být ve výsledku přítomné než vyjmenovávat, co tam být nemá. Funguje to úplně stejně jako lidský mozek. Když vám řeknu „nemysli na růžového slona“, první, co se vám vybaví, je růžový slon. Důvod je jednoduchý: model musí nejdřív zpracovat obsah zadaných slov a teprve potom se snaží naplnit zbytek promptu. Negace prostě nepůsobí jako zákaz tak spolehlivě jako jasný pozitivní popis. Výsledkem pak bývá přesně ten text, který jste nechtěli.

Co s tím: Vždy jí říkejte, co udělat. Přeformulujte své požadavky pozitivně: „Piš energicky a chytlavě. Používej slovník žáka 8. třídy. Vejdi se maximálně do 3 odstavců.“ Je to navíc mnohem lépe měřitelné a snadno se to kontroluje.

Školení Linkedin a AI

4. Chcete složitý výsledek jednou větou a hned

Zadáte těžký analytický nebo matematický úkol a tlačíte na to, aby vám AI okamžitě dala finální odpověď. Tohle je přímý zabiják vaší efektivity.

Proč je to špatně: Když model nutíte rovnou „vyplivnout“ odpověď bez jakékoliv přípravy, má tendenci přeskočit přípravu a začne s největší pravděpodobností halucinovat. Efektivnější je rozdělit úlohu na kroky a nechat model nejdřív vytvořit plán.

💡 Pikoška z praxe: Oficiální průvodce od OpenAI v tomto směru mluví jasně: u složitějších úloh pomáhá dát modelu čas přemýšlet a rozdělit problém na kroky. Jak moc to pomáhá? Ve slavné vědecké práci Large Language Models are Zero-Shot Reasoners autoři ukázali, že pouhé přidání věty „Let’s think step by step“ (Pojďme myslet krok za krokem) zvedlo úspěšnost na úlohách vyžadujících uvažování (např. v datové sadě MultiArith) ze 17,7 % na neuvěřitelných 78,7 %!

Co s tím: Nejrychlejší cesta k použitelnému výsledku často vede přes jeden krok navíc. Nechte model nejdřív vypsat plán a kontrolní seznam kroků. Pokud spěcháte, plán může mít klidně jen pět bodů. Až když ho odsouhlasíte, teprve potom generujte finální výstup.

5. Mícháte instrukce s podklady

Jak vypadá typické špatné zadání? Totální guláš. Uživatel zkopíruje 5 stran textu, někam doprostřed schová větu „udělej mi z toho shrnutí“ a nechá na AI, ať si vymyslí, jak to má vůbec vypadat. Neřeší přitom, jestli vložený text neobsahuje skryté příkazy.

Proč je to špatně: Model hádá, co je váš příkaz a co je jen obsah k práci. Pokud se do toho navíc připlete takzvaný Prompt Injection (škodlivé instrukce skryté ve vloženém textu, které přepíší vaše původní zadání), máte zaděláno na bezpečnostní problém. Organizace OWASP to řadí mezi největší rizika pro aplikace s LLM a sama OpenAI to označuje za bezpečnostní výzvu budoucnosti.

💡 Pikoška z praxe: OpenAI výslovně doporučuje dát instrukce na úplný začátek a oddělit je od kontextu pomocí jasných oddělovačů, například tří křížků (###) nebo trojitých uvozovek. Společnost Anthropic zase radí používat XML tagy (např. <text>). Stejnou radu ohledně XML tagů najdete dokonce i v oficiální dokumentaci Amazon Bedrock.

Co s tím: Když nejsou hranice vidět, model si je vymyslí. Formát je polovina zadání. Model neumí přirozeně rozlišit instrukci a data, takže se dá snadno splést. Tvrdě si vynuťte strukturu – požadujte body, tabulku, JSON formát nebo checklist. Oddělte zdroje pomocí zmíněných značek a přidejte pravidlo, že instrukce se berou pouze z vaší zadávací části, nikoliv z vloženého textu.

Naučte se pokročilejší techniky promptování a používejte značky. Přečtěte si o tom náš další článek.

6. Ignorujete sílu příkladu

Napíšete jednoduchý příkaz: „Napiš vtipný tweet o kávě.“ Za pět vteřin se rozčilujete, že ten vtip zní strašně uměle, „křečovitě“ a roboticky.

Proč je to špatně: Slovo „vtipný“ je gumové. Znamená pro umělou inteligenci milion různých věcí, od suchého britského humoru po laciné anekdoty. Bez ukázky model často skončí u prostého, nudného průměru.

Co s tím: Dejte jí jeden až tři příklady (tzv. Few-Shot Prompting). Změňte prompt na: „Zde jsou 3 moje minulé tweety o kávě, které měly obrovský úspěch: [vložte tweety]. Napiš čtvrtý přesně ve stejném stylu.“ Šetří to čas mnohem víc než nekonečné slovíčkaření o tom, jaký má mít AI tón.

7. Sdílíte do chatu citlivé informace

Toto je nebezpečný zlozvyk. Lidé do oken běžných AI chatů vesele kopírují interní firemní smlouvy, detailní finanční data nebo osobní údaje svých klientů. Jenže tohle není osobní poznámkový blok.

Proč je to špatně: Tohle je chyba spíše procesní než technická, ale její dopad bývá obrovský. Jakmile vložíte data do AI, stávají se z nich data cizí firmy. Bezpečnostní auditoři před tím varují jako před největším rizikem. Nemáte totiž žádnou šanci uhlídat, kdo vaše citlivé informace uvidí nebo jak s nimi naloží.

Co s tím: AI chat není automaticky váš soukromý trezor, je to externí pracovní nástroj, který potřebuje tvrdá pravidla. Vytvořte si jednoduchý firemní nebo osobní seznam (tzv. blacklist) toho, co do veřejné AI prostě nikdy nejde. Stačí pět položek a je to mnohem spolehlivější než spoléhat na intuici zaměstnanců. A druhá varianta: Anonymizujte. Protože z Petra jednoduše uděláte Pavla a podobně.

📌 Mini tahák na ledničku (Shrnutí celé desítky)
Největší průšvihy s umělou inteligencí nevznikají proto, že by byl nástroj hloupý. Vznikají ze tří úplně obyčejných chyb v zadání. Čím menší prostor dáte AI pro její „vlastní fantazii“, tím lépe a přesněji bude pracovat.
Nedali jste jí data (Chybí zdroj): Chcete po ní přesná fakta, ale nedodali jste jí žádný text, ze kterého by měla čerpat. Tak si ta fakta prostě vymyslí.
Udělali jste jí v tom guláš (Chybí hranice): Zamíchali jste svůj příkaz někam doprostřed dlouhého textu. AI pak netuší, co si má jen přečíst, a co má reálně udělat.
Nenastavili jste mantinely (Chybí formát): Neřekli jste jasně, jestli chcete odrážky, tabulku nebo e-mail o 5 větách. Tak vám napsala nekonečnou a nudnou slohovku.

8. Zkoušíte opravit špatný výsledek naslepo

Model udělá chybu a uživatel okamžitě odpoví: „To je špatně, zkus to znovu.“ A pak znovu. Vzniká typická spirála zmaru, která vůbec neřeší původní příčinu.

Proč je to špatně: AI neví, v čem konkrétně udělala chybu. Jediný stabilní způsob, jak z toho ven, je definovat kritéria úspěchu.

💡 Pikoška z praxe: Anthropic ve svém článku o evaluacích pro agentní systémy popisuje, že kvalitní zlepšování stojí na reálných selháních a na pochopení, proč model selhal, nikoliv na náhodném zkoušení dokola.

Co s tím: Bez kritérií úspěchu se promptuje, jako když házíte šipky poslepu. Zastavte se. Napište si tři konkrétní podmínky, které musí výsledek absolutně splnit. Poté upravte svůj původní prompt a ty podmínky do něj vložte jako checklist. Teprve potom generujte znovu.

9. Ptáte se bez podkladů a zaměňujete sumarizaci za doslovný přepis

Kromě toho, že po AI uživatelé často chtějí přesná fakta „z hlavy“ (což vede k halucinacím), berou velmi často i výstupy z přepisovacích AI nástrojů jako naprosto nezpochybnitelný stenografický záznam.

Proč je to špatně: Žádný model není stoprocentní, a dokonce i nástroje určené čistě na přepis zvuku mohou vymýšlet.

💡 Pikoška z praxe: Zní to neuvěřitelně, ale i pouhá transkripce z audia může halucinovat! Prestižní agentura Associated Press (AP) popsala prokazatelné případy, kdy populární přepisovací model Whisper dokázal do automatického přepisu vložit celé věty, které v nahrávce nikdo nikdy neřekl.

Co s tím: Přepis může být nejen nepřesný, ale někdy i naprosto vymyšlený. U důležitých citací vždy proveďte ověření proti originálnímu audiu a držte si časovou značku. Bez toho je citace jen odhadem přepisovače.

10. Používáte AI jako náhradu rozhodnutí, ne jako podporu

Toto je ta nejvíc lidská chyba ze všech. Model navrhne strategii a uživatel ji bez kontroly pošle dál šéfovi nebo klientovi.

Proč je to špatně: Rámec NIST AI RMF zdůrazňuje, že řízení rizik vyžaduje kontext, měření a srovnání, protože umělá inteligence se v chování radikálně liší od člověka a přehnaná důvěra může být zavádějící. Nemá ponětí o reálných dopadech na vaši konkrétní firmu.

Co s tím: AI umí neuvěřitelně rychle navrhovat, ale absolutně neumí nést odpovědnost za dopad. Vynucujte si od ní varianty, kompromisy, rizika a předpoklady. Finální rozhodnutí ale musí vždy stát na člověku, protože jen vy znáte reálné dopady v daném kontextu.

Související články

Naučte AI psát jako vy: 12 promptů pro digitálního klona

Jak upravit AI text, aby zněl jako, že ho napsal člověk

7 pokročilých technik: Značky pro prompty, které AI pochopí

Promptování: Příklady správně položených otázek

Diskuze

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *