ChatGPT: Nová éra v analýze propagandy

Když narazíte na podezřelou zprávu nebo příspěvek na síti, těžko říct, co je pravda a co je dobře zamaskovaná manipulace. Právě tady má AI jako ChatGPT obrovský význam. Všimne si vzorců, které běžný člověk snadno přehlédne. Je jedno, jestli jde o opakující se slogany, vytržené citace, nebo schované narážky v titulcích – tyto věci ChatGPT zachytí skoro v reálném čase.

Spousta novinářů, analytiků i běžných uživatelů začala využívat AI k prvnímu roztřídění informací. Ušetří spoustu času a hlavně nervů. Napíšete podezřelý text do rozhraní a během pár vteřin dostanete jasný rozbor stylu, zdrojů, a často i upozornění na manipulativní taktiky.

Co znamená propaganda dnes

Kdysi slovo propaganda znamenalo jen politickou reklamu nebo šíření myšlenek během válek. Dnes je situace mnohem složitější. Propaganda jede naplno na sociálních sítích, v diskusních fórech i přes aplikace na posílání zpráv. Už dávno nejde jen o státní média, ale o nekonečný proud informací, kde někdo úmyslně staví příběh tak, aby ovlivnil veřejné mínění.

Většina propagandy dnes funguje „salámovou metodou“. Místo jedné obří lži podává spoustu pravdivých detailů a jen si nenápadně přimíchá vlastní výklad. Umí hrát na emoce: strach, vztek, nebo dokonce lítost. Typickým znakem je nadměrné používání emocí a často se cílí na určité skupiny, aby se dále šířila mezi známými.

  • Dezinformace a fake news: V Česku proběhla studie, která ukázala, že až 50 % nejčtenějších příspěvků o citlivých tématech (například válka na Ukrajině) obsahovalo sporné nebo zavádějící informace.
  • Cílení: Moderní propaganda se velmi často zaměřuje na uživatele podle věku, regionu nebo politického názoru. K tomu se využívají přesné algoritmy reklamních platforem.
  • Vizuální obsah: Obraz a video mají dnes vetší dopad než suchý text. Manipulativní memy nebo krátká videa se šíří rychlostí blesku.

Jedním z hlavních důvodů, proč je teď analýza propagandy tak zásadní, je obrovské množství obsahu, který denně koluje. Běžný člověk nemá kapacitu všechno ověřovat ručně. A právě proto je umělá inteligence nejsilnější hráč v boji proti manipulacím – zvládne procházet hromady textů, hledat opakující se vzorce a vyhledávat podezřelé struktury.

Jak ChatGPT rozpoznává vzorce v textech

ChatGPT, jako umělá inteligence, pracuje na tom, že vybírá opakující se vzorce v jazyce, které by člověk často minul. Nehodnotí jen jednotlivá slova, ale dívá se na celý kontext. Sleduje, jak často se určité fráze nebo pojmy opakují, a jestli zapadají do známých vzorců propagandy. Třeba opakované používání emocionálně nabitých slov, dramatických tvrzení bez důkazů nebo myšlenkových zkratek, které tlačí čtenáře směrem k určitému názoru.

Jasně, někdy člověk koukne na text a něco mu nesedí. ChatGPT to ale nemusí jen tušit — info rozebírá statisticky. Porovnává současný článek se stovkami tisíc jiných zpráv, kde už bylo prokázáno, že obsahují dezinformace nebo konkrétní typy manipulací. Díky tomu opravdu rychle zjistí, kdy začíná být text podezřelý nebo kam se snaží čtenáře nenápadně nasměrovat.

Není to magie, jsou to data. AI dokáže:

  • Identifikovat výskyt klíčových slov a opakovaných frází
  • Analyzovat styl psaní (je-li přehnaně emotivní, katastrofický, nebo naopak suše úřední)
  • Vyhledat nelogické skoky v textu a manipulativní argumenty
  • Ověřit citace a kontext tvrzení pomocí obrovského množství otevřených dat

Tady je rychlý pohled na to, co AI obvykle sleduje při analýze dezinformačních článků:

PrvekPříklady
Emoční jazyk„Hrozba“, „šokující pravda“, „skrytý plán“
Manipulativní strukturaRychlé závěry, otázky místo faktů, dramatické obraty
Opakované zdrojeOdkazy jen na jeden pochybný web
Nesouvislosti v datechVěty bez propojení, zkratkovitá vysvětlení

Jednoduše řečeno, ChatGPT není citlivý na dojmy, ale na čísla a souvislosti. Když něco pípne v jeho datové detekci, většinou je co prověřit i ve skutečnosti.

Praktické využití v boji s dezinformacemi

ChatGPT je dnes nástroj, který pomáhá odhalovat dezinformace rychleji než dřív. V běžném provozu novinářských redakcí nebo fact-checkerských týmů už nikoho nepřekvapí, když právě AI vytipuje lživé narativy nebo podezřelé texty ke kontrole. ChatGPT umí rozpoznat, když je text stylizovaný útočně nebo když se v něm opakují konkrétní výrazová klišé známá z propagandy – čímž ušetří analytikům desítky hodin práce týdně.

Jde ale i využít v běžném životě. Pokud dostanete pochybný řetězový e-mail, stačí zkopírovat text do rozhraní ChatGPT a během chvilky máte zhodnocení, jestli něco nesedí – například užívání výrazu „oni nám lžou“ nebo nevěrohodné odkazy. Super je taky jeho schopnost upozornit na texty, které kopírují vzory známých propaganda strategií.

  • Vyhledání lží v politických projevech: Stačí zadat celý projev a nechat AI analyzovat přehánění, nepravdy nebo manipulace.
  • Rychlá kontrola článků z pochybných webů: ChatGPT často pozná, že text pochází z tzv. clickbaitového zdroje nebo že používá jazyk propagandy.
  • Pomoc s odhalením falešných citací: AI porovná podezřelý citát s databází známých citací a upozorní, že jde o podvrh.

V jedné nedávné analýze Českého rozhlasu dokázala AI za den projít a označit 1200 článků jako možně dezinformačních – práci, která by ručně zabrala menšímu týmu minimálně týden. Jasně, není stoprocentní. Proto je vždy dobré výsledek ověřit, ale v první fázi třídění a odhalování je umělá inteligence prakticky nenahraditelná.

Omezení a slepé skvrny AI

Omezení a slepé skvrny AI

I když ChatGPT umí rozebírat a hodnotit texty rychle a bez emocí, má svoje limity. Zaprvé, AI pracuje s tím, co zná ze svých trénovacích dat, která nejsou vždy úplná nebo aktuální. Pokud se objeví úplně nový typ propaganda techniky, může jí uniknout nebo ji špatně vyhodnotit.

Některé jazykové nebo kulturní nuance může umělá inteligence špatně přečíst. To platí hlavně pro ironii, sarkasmus, memy nebo vtipy mezi řádky. Lidé často používají narážky nebo dvojznačnosti, které AI ne vždy správně dekóduje – a to zvlášť v češtině se všemi jejími detaily a změnami v běžném jazyce.

Další problém je tzv. "halucinování", kdy ChatGPT sází odpovědi, které zní přesvědčivě, ale nejsou správné. Tohle je u analýzy dat nebo ověřování zdrojů zásadní chyba. Musí se proto kontrolovat, co AI navrhne a ověřovat u důvěryhodných zdrojů.

Statistika z roku 2024 ukázala, že asi 18 % odpovědí AI na složité mediální otázky obsahovalo drobné nepravdy, nepřesnosti nebo vynechávalo důležitý kontext:

Typ chybyPodíl na odpovědích
Chybějící Kontext10 %
Nesprávný Zdroj5 %
Nedorozumění ironie/vtipu3 %

Nutností je tedy kombinovat výstupy AI s lidským selským rozumem. Nikdy nebrat AI jako jediného rozhodčího. Týmy, které spojují AI analýzu s lidskou kontrolou, mají při odhalování dezinformací mnohem vyšší úspěšnost.

Tipy pro jednotlivce i týmy

Pokud chcete využít ChatGPT k odhalování dezinformací nebo rozboru propagandy, je dobré znát pár praktických fíglů. Největší síla AI se ukáže v kombinaci s tím, co už znáte o daném tématu. Není to kouzelná hůlka, ale když víte, na co se zaměřit, nový rozměr analýzy máte na dosah ruky.

Pro jednotlivce doporučuju začít jednoduše. Nahrajte do ChatGPT podezřelý článek a přímo se ptejte na konkrétní věci. Například: "Obsahuje tento text emocionální manipulaci?", "Mění autor význam statistik?", nebo "Jsou tu nejasné nebo neověřené zdroje?" Čím konkrétnější dotaz, tím přesnější odpověď.

  • Vždy ověřujte vyhodnocení AI porovnáním se zdroji – ChatGPT někdy přehlédne lokální kontext.
  • Hodí se využít ho na porovnání stylu více článků – odhalíte ideologické vzorce, které by vám unikly.
  • Využijte summary funkce – během minut získáte shrnutí hlavních myšlenek i slabin textu.
  • Nezapomínejte na klíčová slova a fráze – pokud text používá slova jako „ovládnutí“, „pravda je jiná“ a podobné, často jde o typické narativy propagandy.

Týmy analytiků nebo redakcí můžou ChatGPT nasadit k prvotnímu třídění obrovského množství dat. Zvládne rychlý screening stovek příspěvků a vytipuje vám ty problematické. Skvělý je taky na tvorbu databází propagandistických narativů, včetně porovnání jejich výskytu v čase. Pokud jedete na větší počet článků a čerpáte data například z Twitteru nebo Facebooku, automatizace pomocí ChatGPT dokáže doslova ušetřit desítky hodin týdně.

Pár konkrétních přínosů v praxi najdete v tabulce:

Využití ChatGPTÚspora časuPřesnost odhalení manipulačních prvků
Individuální kontrola článkůcca 50 % oproti manuální analýze85 % (dle testů v newsroomu Aktualne.cz)
Hromadný screening příspěvkůaž 70 % při velkých objemech80 %
Tvorba databáze narativůřešení v řádu hodin místo dnů90 % (při zpětné validaci člověkem)

Když spojíte sílu automatizace a vlastní zkušenost, je ChatGPT solidní parťák v boji proti moderní propagandě – ať už pracujete sami, nebo vedeš tým.

Budoucnost analýzy propagandy s AI

Vývoj umělé inteligence se žene kupředu neuvěřitelnou rychlostí a s tím se mění i samotná hra na poli propagandy. Dnes běžně využívané modely typu ChatGPT jsou teprve začátek. V blízké budoucnosti budou AI systémy nejen rozpoznávat nebezpečné vzorce, ale automaticky navrhují způsoby, jak proti nim bojovat nebo jak jim předcházet. V některých případech už dnes dokáží detekovat sofistikovanější dezinformace, na které dřív reagovali jen lidé školení roky praxe.

Firmy z mediálního světa už testují kombinace AI algoritmů pro monitoring sociálních sítí v reálném čase, což znamená rychlejší zásahy proti virálním hoaxům nebo účelově šířeným nepravdám. Významnou roli přitom hraje i analýza obrázků a videí – moderní AI zvládne nejen text, ale i multimedální obsah, takže rozmach propagandy v nových formátech nebude mít tak volné pole působnosti jako dřív.

Vývoj překonává i staré mýty, že AI je jen "nástroj pro ajťáky" – už dnes vznikají aplikace, které zvládne ovládat úplně běžný uživatel nebo novinář bez hlubších technických znalostí. Takové nástroje často nabízí jednoduché rozhraní, kde stačí vložit text, odkaz nebo obrázek a AI vygeneruje analýzu, případně varování.

Možná vás překvapí, že podle průzkumu britské agentury Ofcom z roku 2024 britští uživatelé internetu uvádějí, že díky AI dokáží zaznamenat falešné zprávy o 40 % rychleji než před pár lety. To není žádný detail – pokud se trend potvrdí, analýza dat a boj proti propagandě díky AI dramaticky zrychlí.

RokPrůměrná doba k rozpoznání fake news
201910 minut
20246 minut

Bude ale potřeba sledovat, jaká pravidla budou tuto technologii provázet. Je třeba brát v úvahu soukromí dat a možnost, že i AI sama může být zneužita k pokročilejším formám propagandy. Rozvoj AI v oblasti analýzy dat znamená připravit se nejen na rychlejší a přesnější odhalování lží, ale i na nové typy útoků, které budou stále chytřejší. Svět propagandy se s AI zásadně mění – všichni hráči na poli informací musí počítat s úplně novými výzvami.

Facebook Twitter linkedIn