Na předsudky v novinových zprávách jsme si už zvykli. Narůstají ale obavy z toho, že nás technologie zatlačují do tzv. “komnaty ozvěn“, ve které slyšíme jen jednu stranu příběhu.

Startup Knowhere chce nabídnout nestranný zdroj informací. Pro projekt už získala 1,8 mil USD (formou Venture kapitálu).

Pro zpracování textů Knowhere využívá technologií umělé inteligence, která agreguje zprávy z více než tisícovky zdrojů a z nich vybírá ty nejčtenější pro další analýzu. Algoritmy pracují v řadě různých jazyků. Zprávy rozebírají z několika hledisek: z pohledu samotného příběhu, fakt i možných předsudků. Ke každé z nich vytvoří tři nové verze: pozitivní, negativní a neutrální. Zabere to maximálně patnáct minut – v závislosti na tom, jak velké neshody panují mezi zdroji a lidskými editory, kteří takovýto článek na závěr kontrolují ještě před jeho zveřejněním.

Knowhere tvrdí, že jejím cílem je naučit stroj to, co nedokážou lidé: procházet záplavy zpráv o hlavních událostech a destilovat nejdůležitější fakta a příběhy.

Knowhere není prvním, kdo tvrdí, že abychom se dokázali zorientovat mezi dezinformacemi a předsudky, bude nutné zaangažovat stroje. Prezidentské volby v roce 2016 v USA dostaly do širšího povědomí termín „fake news“.  Pokusy o identifikaci a odstranění úmyslně zavádějících článků v online prostředí stály obrovské úsilí.

Různé cesty ke stejnému cíli

Facebook testuje sadu nástrojů, které mají uživatele upozornit na možné Fake News pomocí odkazů na články, které se vzájemně rozporují. Finští a italští výzkumníci loni vyvinuli algoritmus, který dokáže zjistit politické preference uživatelů sociálních médií, a který jim dokáže nabídnout názory z opačného spektra. Něco podobného nabízí i rozšíření EscapeYourBubble pro vyhledávač Chrome. Do informačního feedu uživatele Facebooku vkládá zprávy z opačného názorového spektra.

Vedení Google na únorovém Světovém ekonomickém fóru v Davosu údajně předložilo návrh rozšířeného vyhledávače, který by upozornil na podezřelý materiál.

Podle MIT Tech Review na scénu vstupuje i AI. Startup AdVerif.ai vytváří algoritmy, které si kladou za cíl pomoci obsahovým platformám odhalit falešné zprávy. Dílem AI fanoušků je i  Fake News Challenge – soutěž koncipovaná za účelem urychlit vývoj výukových nástrojů pro stroje, které by dokázaly kontrolovat ve zprávách fakta.

Emoce versus fakta

Zadání je ale výrazně složitější, než by se mohlo na první pohled zdát. Jak píše Martin Robbins v deníku The Guardian, fake news není vždy snadné odhalit. Kontrola výroků, týkající se čísel oproti veřejně dostupným databázím je jedna věc; odhalení pravdy z tajných jednání za zavřenými dveřmi už tak snadným úkolem není.

I při nejlepší vůli je příliš těžké se vyhnout ovlivnění už jen proto, že velká část toho, o čem novináři píší, je subjektivní. Není v lidských silách si zachovat zcela nestranný názor na politiku či náboženství, kdy přesvědčení autora či editora do jejich práce bezpochyby prosákne.

To ale není všechno. Ačkoliv mohou být fakta ve zprávě pravdivá, mohou být zároveň prezentována tak, aby jejich vyznění podpořilo určitý účel nebo agendu. Tento způsob publikování informací používají v různé míře všechny zpravodajské organizace.

Knowhere chce s pomocí dostatečně širokého vzorku dat ze zpravodajských zdrojů (všech nějakým způsobem zaujatých), identifikovat střední cestu. Věří, že pro její nalezení postačí popsané tři verze. Zveřejní tu nestrannou. Ve hře je i další cesta: vystavit čtenáře vzájemně si konkurujícím zprávám a nechat ho, ať si vytvoří názor sám — neboli odstranit výslednou, „nestrannou“ verzi a čtenáři nabídnout pouze pozitivní a negativní verzi.

Zatím je projekt teprve na začátku. V první fázi zakladatelé hodnotili pravdivost zdrojů manuálně, a zprávy, vypracované strojově, přísně posuzují editoři, kteří i v nestranné verzi hledají příznaky zaujatosti. Jejich korekce jsou dále používány ke zdokonalování uvedených algoritmů.

Kdo opravdu chce znát pravdu?

Má se za to, že AI vykazuje silnou tendenci detekovat předsudky.  I ty nejjemnější signály mohou mít zásadní vliv, pokud se vynásobí tisícovkami učebních příkladů. Lidská rozhodnutí o pravdivosti a nestrannosti jsou vždy subjektivní, a tak je třeba s označením „nestranný“ zacházet opravdu opatrně.

Naneštěstí je většina lidí se svými předsudky naprosto spokojena. Zdaleka ne každý bude ochoten si nainstalovat aplikaci, jež by zpochybňovala jeho vlastní názory. Od sociálních médií také nelze očekávat, že by nabídly obsah, který by jejich uživatelé mohli vnímat jako kontroverzní, aby neztratily uživatelskou základnu.

Recept na řešení problémů s dezinformacemi a předsudky asi nebude snadné najít ani s vyspělými technologiemi.

Autor originálního článku: Edd Gent. Volný přepis Petr Šrámek. Foto: Pixabay