Řada z vás asi slyšela o tzv. třech zákonech robotiky, definovaných spisovatelem Isaacem Asimovem. Jejich cílem bylo ochránit člověka před škodlivou činností robota. Scifi literatura často předznamenává realitu a tohle je jeden z dalších případů, kdy potřeba pravidel (zásad, principů, hranic) přešla i do našeho skutečného života.

Na jaře 2017 přišla skupina vědců a osobností s tzv. Asilomarskými principy, které byly následně vyhlášeny za podpory světově uznávaných osobností, jako Elon Musk či Steven Hawking. Přeložili jsme je pro vás do češtiny. 

Zkuste se začíst. Pohybujeme se na pomezí odborné terminologie, filosofie, etiky a praktického života. Jak co nejpřesněji zformulovat zásady pro tak složitý obor, jakým umělá inteligence je? Jak nastavit pomyslné „hranice“ území, ke kterému prozatím máme jen mlhavé náznaky něčeho, připomínajícího mapu? I proto patří jednotlivé Asilomarské principy mezi často diskutovaná témata a vzbuzují tolik emocí. Do diskuse se zapojují AI odborníci z celého světa. 

V Čechách se zatím o těchto principech moc nemluví, ale já pokládám za důležité, aby se s nimi seznámil každý, kdo se reálně zajímá o umělou inteligenci.

Zdraví Petr

Na konferenci o AI v americkém Asilomaru v lednu 2017 vznikl komplex 23 zásad (principů) vývoje umělé inteligence.
Za první rok se k Asilomarským principům otevřeně přihlásilo přes 1200 výzkumníků AI z celého světa a 2500 dalších lidí.
Diskuse nad jednotlivými principy probíhá na webu Future of Life.

Otázky, týkající se výzkumu

 

1. Cíl výzkumu:

    Cíl výzkumu umělé inteligence by neměl být vznik neřízené inteligence, nýbrž inteligence přínosné.

2. Financování výzkumu: Investice do umělé inteligence by měly jít ruku v ruce s financováním výzkumu, podporujícího její přínosné využití, včetně řešení palčivých otázek z oboru počítačových věd, ekonomie, práva, etiky a sociálních studií, jako jsou např.:

  • Jak můžeme zajistit robustnost budoucích AI systémů tak, aby bezporuchově vykonávaly činnosti jim zadané a zároveň se nestaly terčem kybernetického útoku?
  • Jak můžeme zajistit růst prosperity společnosti prostřednictvím automatizace a zároveň zajistit lidem nové místo a smysl na trhu práce?
  • Jak můžeme zmodernizovat náš právní řád tak, aby byl férový a účinný, držel krok s umělou inteligencí a dokázal si poradit s riziky s ní spojenými?
  • Podle jakého souboru hodnot by se měla umělá inteligence chovat a jaký právní a etický status by měla mít?

3. Propojení vědy a zákona: Měla by existovat konstruktivní diskuse mezi AI výzkumníky a zákonodárci.

4. Kultura výzkumu: Měla by být podporována kultura spolupráce, důvěry a transparentnosti mezi výzkumníky a vývojáři umělé inteligence.

5. Zamezení “závodění“: Týmy vyvíjející umělou inteligenci by měly aktivně spolupracovat, aby se zamezilo “šizení” bezpečnostních standardů.

 

Etika a hodnoty

 

6. Bezpečnost:AI systémy by měly být bezpečné během svého životního cyklu a kde je to možné a dává to smysl, jejich bezpečnost by měla být ověřitelná.

7. Transparentnost selhání: Pokud systém umělé inteligence selže, mělo by být možné zjistit z jakého důvodu se tak stalo.

8. Soudní transparentnost: Jakékoli zapojení autonomního systému do soudního rozhodování by mělo poskytnout uspokojivé vysvětlení svého rozhodování, ověřitelné kompetentní osobou.

9. Zodpovědnost: Designéři a konstruktéři pokročilých inteligentních systémů mají spoluúčast na morálních dopadech použití a zneužití těchto technologií s tím, že mají tu možnost a zodpovědnost tyto dopady měnit.

10. Vytyčení hodnot: Vysoce autonomní inteligentní systémy by měly být navrženy tak, že jejich cíle a chování budou během provozu v souladu s lidskými hodnotami.

11. Lidské hodnoty: Systémy umělé inteligence by měly být navrženy a fungovat tak, aby byly kompatibilní s ideály lidské důstojnosti, práv, svobod a kulturní diverzity.

12. Soukromí: Vzhledem k schopnosti inteligentních systémů analyzovat a vyhodnocovat data by měli mít lidé přístup k a kontrolu nad daty, která vytvářejí.

13. Svoboda a soukromí: Použití umělé inteligence ve spojitosti s osobními údaji nesmí nerozumně omezit reálnou nebo jinak vnímanou svobodu člověka.

14. Sdílený benefit: Z inteligentních technologií by mělo mít prospěch co nejvíce lidí.

15. Sdílená prosperita: Ekonomická prosperita vytvořená umělou inteligencí by se měla šířit tak, aby měla pozitivní dopad na celé lidstvo.

16. Řízení člověkem: Lidé by měli být ti, kdo rozhodnou, jestli a jak svěřit umělé inteligenci rozhodování v rámci dosahování člověkem stanovených cílů.

17. Nezneužití: Moc, kterou přináší řízení vysoce pokročilých inteligentních systémů, by měla respektovat a vylepšit, spíše než podkopávat, sociální a občanské procesy, na nichž je založeno zdraví společnosti.

18. Zbrojení na poli AI: Mělo by se zabránit vývoji smrtících autonomních zbraní.

Dlouhodobé otázky

 

19. Opatrnost při předpovídání možností: Vzhledem k absenci shody bychom se měli vyvarovat pevných domněnek ohledně limitů toho, co budoucí umělá inteligence dokáže.

20. Důležitost: Pokročilá AI by mohla znamenat dramatickou změnu v historii života na Zemi, a proto by měla být plánována a řízena s pečlivostí tomu odpovídající.

21. Rizika: Rizika představovaná inteligentními systémy, zejména katastrofální nebo existenciální rizika, musí být předmětem takového plánování a snah o mitigaci, který plně odráží očekávaný dopad těchto rizik.

22. Rekurzivní sebezlepšování: Inteligentní systémy, které jsou navrženy tak, aby se rekurzivně samy zlepšovaly a rozmnožovaly, s možným následkem rapidního nárůstu jejich kvality a kvantity, musí být podrobeny striktním bezpečnostním a řídícím opatřením.

23. Všeobecné blaho: Superinteligence by měla vyvinuta v souladu se všeobecně uznávanými etickými ideály a tak, aby prospívala celému lidstvu, ne pouze jednomu státu či organizaci.

celý článek 
si můžete přečíst v angličtině
na www.futureoflife.org