Poté co jsem v roce 2016 slyšel diskuzi na téma Artificial General Intelligence moderovanou Maxem Tegmarkem, začal jsem více sledovat jeho činnost a objevil tak jím založený Future of Life Institute.

Jeho aktivita probudila celosvětovou diskuzi a iniciovala i známé komentáře o (ne)bezpečí umělé inteligence od Elona Muska a Stephena Hawkinga. Jejich komentáře sice nebyly příliš zasvěcené ale účelem bylo spíše připoutat pozornost veřejnosti. Následující článek vám má tedy poskytnou přesnější pohled na otázku bezpečnosti umělé inteligence a jaká řešení zvolit…

Petr

Výzkum ‘přínosné’ umělé inteligence

Tento článek je součástí série článků, věnujících se 23 zásadám (principům), stanoveným na konferenci o UI v americkém Asilomaru v roce 2017. Komplex zásad má nabídnout rámec pro zajištění prospěšnost umělé inteligence pro co největší množství lidí.

Cíl výzkumu: „Cílem výzkumu umělé inteligence by nemělo být vytvoření nevázané, ale přínosné inteligence.” 

Není náhodou, že první Alisomarský Princip se týká právě výzkumu. ‚Princip cíle výzkumu‘ možná nevypadá tak atraktivně, jako některé ostatní principy týkající se toho, jak budeme s umělou inteligencí (dále AI – artificial intelligence) interakovat a jaký dopad bude mít tzv. superinteligence, tedy taková umělá inteligence, která již disponuje určitou intuicí. Ale z tohoto jednoho Principu jsou odvozeny všechny ostatní.

Jednoduše řečeno, umělá inteligence nevznikne bez výzkumu a specifických cílů stanovených vědeckými pracovníky. Nicméně účast ve výzkumu a snaha o dosažení cílů na poli AI bez uvážení možných dlouhodobých důsledků výzkumu by mohla být pro společnost škodlivá.

Ve filmu Jurský park je scéna, ve které Jeff Goldblum zmiňuje, “že vědci, kteří dinosaury stvořili, byli tak soustředění na to, zda to dokáží, že vůbec nepřemýšleli nad tím, zda by to doopravdy měli dělat.” Donedávna se výzkum na poli AI rovněž soustředil na to, čeho všeho se dá dosáhnout, bez ohledů na dlouhodobé následky, a to z dobrého důvodu: Výzkumníci se zkrátka snažili, aby programy s umělou inteligencí fungovaly a potencionální riziko bylo minimální.

V posledních letech ale vědci na poli umělé inteligence dosáhli značného postupu. Dopad AI na společnost je již nyní cítit, v kontextu s občasnými skandály to ale není vždy v pozitivním smyslu.

Změna úhlu pohledu

Bohužel je ve výzkumu umělé inteligence stále zažitá kultura toho, že vývojáři nejsou zodpovědní za to, jak jsou jejich produkty používány.

Stuart Russell srovnává tento přístup se stavebními inženýry, kteří by si nikdy nedovolili říct něco ve smyslu: “Já ten most prostě navrhnu, ale o to, zda bude stát, by se už měl starat někdo jiný”.

Joshua Greene, psycholog z Harvardu, souhlasí. Vysvětluje: “Myslím, že první princip je v podstatě dodatkem k ‘Principu všeobecného blaha (č.23)‘, který říká, že není v pořádku být neutrální. Není v pořádku říct, “Já pouze vytvářím nástroje a někdo jiný rozhoduje, zda jsou k užitku či škodě.” Když jste součástí procesu vytváření těchto mocných nástrojů, je zároveň vaší zodpovědností udělat maximum pro to, aby byly k užitku. Směřovat vývoj k co největší užitečnosti a dobrému poslání je povinností každého, kdo je jeho součástí, protože pokud by každý toto břemeno přesouval na ostatní, vznikaly by podmínky pro to, aby ti, kdo již dnes disponují velkou mocí, zneužívali výzkumu pro své vlastní účely.”

Co znamená “přínosné”?

Ostatní experti na umělou inteligenci, se kterými jsem se bavil, souhlasili s obecnou myšlenkou Principů, ale neshodovali se plně s formulacemi některých myšlenek. Patrick Lin považuje termín “přínosný” za zavádějící, zatímco John Havens tento termín označil za  výstižný právě proto, že nutí člověka zamyslet se významem slova “přínosný” v kontextu umělé inteligence.

“Obecně s cíli výzkumu souhlasím,” vysvětloval Lin, filosof z Cal Poly. “Vzhledem k potenciálu zneužití umělé inteligence je důležité mít před sebou konkrétní pozitivní cíl. Co může být zavádějící, je výraz “přínosná AI”. Pokud je naším cílem přínosná umělá inteligence, musíme přesně definovat, co znamená “přínosná”. Různí lidé to mohou chápat různě a bez jasné definice nelze jít stejným směrem.”

Naopak Havens, ředitel “IEEE – Globální Iniciativy pro Etické Rozhodování v Umělé Inteligenci a Autonomních Systémech”, je potěšen tím, jakou slovo vyvolává diskusi. “Miluji slovo ‘přínosný’, řekl. “Občas mám pocit, že když se řekne inteligence, lidé automaticky uvažují v pozitivním kontextu. Pokud je něco inteligentní, autonomní, pokrokové, je to prostě i dobré.  Slovo ‘přínosný’ vás přinutí přemýšlet: Co znamená přínosné? Následně se mohou vynořit další úvahy: Pro koho je to přínosné? A nakonec: Jaké jsou tedy priority? Proto slovo ‘přínosný’ miluji.”

Roberta Gordona Susan Craw, výzkumnice AI a univerzitní profesorka s Asilomarskými principy souhlasí, ale i ona zpochybňuje některé pojmy. “Ano, souhlasím s tím,” říká Crawová, a dodává, “myslím jen, že by možná bylo vhodnější prosazovat termín ‚přínosný výzkum‘, který by byl lépe uchopitelný.”

Dlouhodobý výzkum

Roman Yampolskiy, výzkumník AI na Univerzitě v Louisville, přivádí diskusi k nejpalčivějším bodům: “Množství inteligentních asistentů je nekonečné, ať z pohledu technické architektury nebo cílů. Nestačí se snažit o návrh fungující inteligence: podstatné je směřovat ji v souladu se směřováním celého lidstva. Pouze pokud usměrníme budoucí superinteligenci dle našich cílů, dokážeme z ní těžit a zároveň předejít existenciální katastrofě.”