Přepis přednášky Johna Tasioulase s názvem „Why AI Is A Threat - And How To Use It For Good“ na konferenci TEDxAthens 2025, která se konala 16. února 2025.
JOHN TASIOULAS: Jsem filozof v Aténách v roce 2024 a mluvím s vámi o umělé inteligenci. To je velké vzrušení a velká čest. Možná se ale ptáte, co má starověká filozofická disciplína co říci k revoluci v umělé inteligenci?
Mám 15 minut na to, abych vám to vysvětlil. Vraťme se k Sokratovi v Republice. Ten říká, že otázka, kterou se zabýváme, není triviální. Je to otázka, jak má člověk žít? A tato otázka, jak bychom měli žít, je ústřední filosofickou otázkou.
Je to však také otázka, na kterou si každý z nás musí odpovědět sám. Proto Sokrates vedl své dialogy na aténské agoře s obyčejnými občany. A díky umělé inteligenci je o to naléhavější si tuto otázku znovu položit, protože tato technologie je natolik převratná, že by mohla změnit naše životy k lepšímu i k dobrému. Proto si tuto otázku musíme znovu položit ve světle těchto nových technologických vymožeností, které Sokrates nemohl předvídat.
Umělá inteligence však nejenže činí tuto otázku, jak bychom měli žít, naléhavější, ale vytváří pro nás při řešení této otázky problémy, nové problémy, nové hrozby pro naši schopnost odpovědět na Sokratovu otázku. Dnes tedy budu hovořit o třech z těchto hrozeb.
Hrozba 1: Zkreslení sebepochopení
První hrozba spočívá v tom, že umělá inteligence hrozí narušením našeho sebeporozumění, našeho chápání toho, co je to být člověkem. Všechny velké technologické korporace tvrdí, že mají stejný cíl. Jejich cílem je vytvořit umělou obecnou inteligenci. Umělá obecná inteligence je inteligence, která kopíruje celé spektrum lidské inteligence. Tedy schopná napsat báseň, stanovit diagnózu rakoviny, rozhodnout o přijetí do zaměstnání, udělat vše, co dokáže člověk.
Pokud však budeme usilovat o AGI jako o cíl, bude zde pokušení, pobídka, představovat si, že AGI bylo dosaženo, protože jsme změnili cíl, změnili jsme vlastní chápání toho, co jsou lidé, a smazali jsme rozdíl mezi lidmi a stroji. Toto rozlišení však musíme zachovat.
Jaké jsou tedy rozdíly? No, jeden zásadní rozdíl se týká porozumění. Systém umělé inteligence, jako je GPT-3, velký jazykový model, pracuje na základě statistických korelací mezi daty. Tyto statistické korelace mu nedávají skutečné porozumění, jaké by měl člověk o tom, co je to kočka nebo co je to elektron. Lidé takové pochopení mají, částečně proto, že jsme ztělesnění agenti, kteří se zabývají fyzickou realitou. A jeden ze způsobů, jak se tento rozdíl projevuje, je, že existuje vlastnost, kterou má většina lidí, a tou je zdravý rozum, který se pro systémy umělé inteligence ukázal jako velmi nepolapitelný. Jinými slovy, systémy umělé inteligence dělají spektakulární chyby, kterých by se žádný člověk nikdy nedopustil.
Zamění si kočku se skateboardem nebo člověka s gorilou. Žádný člověk by tyto chyby nikdy neudělal, protože lidé mají zakořeněné chápání světa způsobem, který stroj pracující na základě korelací mezi datovými body nemá. Porozumění je tedy velký rozdíl.
Ale je tu ještě jeden velký rozdíl, a to ten, že lidé mají schopnost racionální autonomie. Máme schopnost zvolit si své cíle, rozhodnout se, zda chceme být lékařem, nebo herečkou.
Chceme být právníkem nebo hudebníkem? A zvolit si tyto cíle s ohledem na všechny důvody pro a proti pro každou možnost. To systém umělé inteligence nedokáže. Má v sobě naprogramovaný cíl a optimalizuje se pro jeho splnění. Možná si teď řeknete, že když začneme stírat rozdíl mezi člověkem a strojem, jaký je v tom rozdíl?
Proč je to důležité? Proč to představuje hrozbu? Myslím, že důvodem, proč je to hrozba, je důvod, který uvedl Aristoteles, totiž že chceme-li vědět, co je dobrý život pro člověka, musíme vědět, jaké jsou charakteristické schopnosti člověka. Tyto schopnosti uvažovat, komunikovat, společensky se angažovat, které se projevují v nejrůznějších hodnotných činnostech, jako je vědecký výzkum nebo udržování přátelství či boj za spravedlnost. Pokud ztratíme živý smysl pro schopnosti, které jako lidé máme, hrozí, že budeme mít ochuzenou etiku. Budeme ochuzeni o smysl pro hodnoty, na kterých záleží.
Jak bude tato ochuzená etika vypadat? No, jednou z jejích podob bude druh konzumerismu, který říká, že to, na čem záleží, je vaše uspokojení jako spotřebitele, které může být jen pasivní záležitostí přijímání potěšení, nikoliv uplatnění vašich schopností. Nebo existuje jiný druh etiky, který se stal velmi populárním v Silicon Valley a který říká, že cestou k lepšímu životu je transhumanismus, že je třeba překročit naši lidskou přirozenost, žít ve virtuální realitě, stát se kyborgem. Z aristotelského hlediska, podle něhož je naplněný život uplatněním svých lidských schopností, není transhumanismus, který je v těchto mocných kruzích brán vážně, cestou k utopii, ale k druhové sebevraždě.
Hrozba 2: Zkreslení chápání problému
Další hrozba, do vývoje umělé inteligence investuje soukromý sektor astronomické částky. Předpokládá se, že v roce 2025 bude do vývoje technologií umělé inteligence investováno 200 miliard dolarů. A pro tyto společnosti bude existovat hluboká ekonomická motivace, aby nám tvrdily, že tyto systémy umělé inteligence dokáží řešit problémy lépe než lidé. A to povede k dalšímu zkreslení. Vytvoří to deformaci, v jejímž důsledku začneme stále více, možná nevědomky, měnit povahu našich problémů, způsob, jakým je chápeme, aby byly vhodnější pro řešení systémy umělé inteligence. Dovolte mi tedy uvést příklad.
Nástroje pro hodnocení rizik založené na technologii AI se již používají v trestním soudnictví. Takže jednou z otázek v trestním soudnictví je otázka kauce.
Měl by být někdo, kdo byl obviněn z trestného činu, propuštěn na svobodu a čekat na soud, nebo by měl být držen ve vazbě? Nyní existuje mnoho velmi významných myslitelů, kteří tvrdí, že systémy umělé inteligence jsou v tomto druhu rozhodování lepší než lidští soudci.
Říkají, že tento argument se skládá ze dvou částí. Jedna část spočívá v tom, že rozhodnutí o kauci je v podstatě předpovědí. Spáchá tato osoba trestný čin, pokud bude propuštěna?
A druhé tvrzení je, že systémy umělé inteligence jsou zbaveny určitých předsudků, které mají lidé, a jsou v těchto předpovědích lepší. Tento druhý krok v argumentaci je velmi kontroverzní.
Není zcela jasné, že systémy umělé inteligence, a to zdaleka ne, jsou v předvídání lepší. Chci však zpochybnit první krok tohoto argumentu, tedy způsob, jakým je tento problém chápán.
Je rozhodnutí o kauci výhradně rozhodnutím o tom, zda tato osoba spáchá trestný čin? Zjevně ne. Existují i další úvahy, které jsou relevantní, například jak závažný byl trestný čin, který spáchal?
Jaký dopad bude mít na jejich děti a rodinu, pokud budou drženi ve vazbě? Jaká je kapacita vězeňského systému pro umístění této osoby?
Když tedy přemýšlíme o tomto rozhodnutí o kauci, není to jednorozměrné rozhodnutí založené na předpovědi. Vyžaduje vyvážení celé řady faktorů. A nemusí existovat jediný správný způsob, jak všechny tyto faktory vyvážit. Neexistuje způsob, kdy byste mohli říci: dám všem těmto faktorům číselné hodnocení a pak vyberu možnost, která získá nejvyšší číslo. Takto situace nefunguje, ale takto by fungoval systém umělé inteligence. Obavy zde tedy spočívají v tom, že místo abychom umělou inteligenci použili k řešení našich problémů, změníme povahu našich problémů.
Ta AI nám začne takříkajíc diktovat, jaké jsou problémy, kterým čelíme. Dostáváme věci zpět do popředí.
Hrozba 3: Ohrožení našich hodnot
Třetí hrozba, o které jsem chtěl mluvit, se týká našich hodnot jako takových. Lidé, kteří nyní prosazují systémy umělé inteligence, zejména jako náhradu lidského úsilí, mají tendenci zaměřovat se na dvě věci. Za prvé, že tyto systémy AI budou přinášet hodnotné výsledky. Budou produkovat správnou diagnózu rakoviny, dobré rozhodnutí o přijetí do zaměstnání nebo dobrý novinářský text. A za druhé, říkají, že tyto dobré výsledky budou produkovat efektivně, rychleji a s menšími náklady než člověk. Ale toto neúnavné zaměření na hodnotné výsledky vyrobené efektivně ignoruje celou řadu hodnot, na kterých nám záleží.
Hodnoty, které budu nazývat procesními hodnotami. Hodnoty týkající se způsobu, jakým vytváříme hodnotné výsledky. A myslím, že to je v podstatě Kavafyho moudrost v básni Ithaka. Že to, na čem nám záleží, není jen dosažení konečného cíle nejrychlejší cestou. Záleží nám také na tom, abychom tohoto cíle dosáhli správným způsobem. Jak toho cíle dosáhneme. Přijet na Ithaku soukromou helikoptérou je něco úplně jiného než tam dorazit cestou hrdiny, který potká lidožravé obry, Kyklopy a rozzlobeného Poseidona. A někdy je cesta důležitější než cíl. Vzpomeňte si na větu: „A jestli ji najdete chudou, Ithaka vás neošidí.“ To je pravda.
A jak to funguje ve skutečném životě? Jak je možné, že nám záleží na procesu, a ne jen na výsledku?
No, vzpomeňte si na milostné vztahy. Ano, usilujeme o láskyplné vztahy. Ale je velký rozdíl, pokud jsme ve vztahu na základě svobodné volby, která vyjadřuje naši osobnost a náš vkus.
A také na sebe bereme riziko, že uděláme strašnou chybu. To je součástí hodnoty. Na rozdíl od toho, když nám vztah přidělí algoritmus, který byl nastaven tak, aby optimalizoval lidskou kompatibilitu. Nebo se zamyslete nad prací. V práci chceme vytvářet hodnotné výsledky, hodnotné zboží a služby. Chceme mít výsledek v podobě slušného platu. Ale záleží nám také na tom, jak tyto věci vznikají.
Chceme mít možnost pracovat způsobem, který zahrnuje uplatnění dovedností, úsudku, možnost skutečné spolupráce. To jsou procesní hodnoty a ty nikdy nebudou plně kompenzovány představou, že bude existovat univerzální základní příjem, který bude lidem kompenzovat pracovní místa ztracená v důsledku automatizace. Nebo si vezměme poslední příklad, případ soudce. Chceme dobrá právní rozhodnutí, která jsou správná. Ale chceme také rozhodnutí, která jsou činěna ze správných důvodů.
Existuje systém umělé inteligence, který se nazývá Lex Machina, nikoli Ex Machina. A Lex Machina dokáže předvídat výsledek právních případů v americkém patentovém právu stejně dobře jako špičkový americký patentový zástupce. Zní to působivě. Ale pak vám řeknu, že to nedělá tak, že by se podíval na zákon a udělal předpověď.
Podívá se na jméno soudce. Podívá se na výši peněz, které jsou v případu v sázce. Podívá se na advokátní kanceláře, které se na případu podílejí. Tyto skutečnosti jsou pro správný výsledek irelevantní. Takže dostanete správné rozhodnutí, ale špatné odůvodnění.
Je to jako se systémem umělé inteligence, který dokázal rozlišit obrázky huskyho, určitého druhu psa, od vlků. A byl velmi úspěšný. Ale k rozlišení používal přítomnost sněhu na obrázku.
Správný výsledek, špatné uvažování. Chceme také soudce, který, pokud má učinit rozhodnutí, které ovlivní náš život a svobodu, dokáže za toto rozhodnutí převzít osobní odpovědnost. Systémy umělé inteligence, které postrádají racionální autonomii, nemohou nést odpovědnost stejným způsobem.
A to je velmi důležité, protože jednou z věcí, ke kterým soudce potřebujeme, je právě ta strašná práce, kdy musí převzít odpovědnost za rozhodnutí, která mají obrovský dopad na lidský život.
Ale je to také lidská tendence snažit se vyhnout odpovědnosti, kde je to možné.
Systémy umělé inteligence budou novým způsobem, jak se můžeme vyhnout odpovědnosti za strašné následky, které navštěvujeme u svých spoluobčanů.
A nakonec je tu bod o empatii.
I když ke mně bude soudce s umělou inteligencí milosrdný a sníží mi trest kvůli těžkostem, které mě vedly ke spáchání trestného činu, nebude mít tentýž rozsudek stejný význam, jako kdyby ho vynesl lidský soudce.
Protože lidský soudce může tento rozsudek vynést a vyjádřit tak soucitnou reakci na situaci, které jsem čelil.
Mohl by říci: „Tam, ale pro milost Boží jdu já.“ Systém umělé inteligence to říci nemůže.
Nesdílí s námi lidský život.
Mluvil jsem o rizicích, která AI představuje. Nyní se ale možná ptáte, jaká jsou řešení?
Řešení a role demokracie
A já si myslím, že při jakémkoli realistickém pohledu neexistuje žádné jednoduché jediné řešení. Například v mém institutu se zabýváme takovými věcmi, jako je potřeba nového práva, práva na lidské rozhodnutí, zvláštního nového práva pro věk AI. Ale pokud existuje ještě jedno zásadní řešení, myslím, že odpověď spočívá v demokracii.
Protože historická zkušenost ukazuje, že technické a technologické inovace nepřinášejí automaticky výhody pro všechny. Přináší prosperitu a další výhody pouze tehdy, pokud podléhají důkladné demokratické kontrole. Demokracie dokáží vytvářet dobrá rozhodnutí lépe než nedemokratické systémy. A také demokracie mají takovou hodnotu procesu, o které jsem mluvil. Pokud společně jako svobodní a rovnoprávní občané uvažujeme o společném dobru a společně dospějeme k rozhodnutí, respektujeme vzájemnou důstojnost způsobem, který jiné systémy nemají. Dobře, ale samozřejmě víme, že žijeme v době demokratické krize, kdy demokracie ztrácí víru.
Žijeme v době, kdy dochází k vzestupu technokracie, kdy je stále více rozhodnutí odebíráno demokratické veřejnosti a svěřováno odborníkům, soudcům, bankéřům. Žijeme v době populismu, kdy lidé hledají silného vládce, který může jednat mimo demokratické struktury. A pokud je do toho všeho zapojena umělá inteligence, mnoho lidí si myslí, že umělá inteligence je pro demokracii toxická, protože umožňuje šíření dezinformací, dezinformací. Podněcuje politickou polarizaci. Chtěl bych skončit pozitivnějším příběhem. A to, že ačkoli je to pravda, existuje také jiná vize, která je pro AI možná, a to umožnit participativnější formu demokracie, která je také lépe informovaná.
Nyní je zřejmá námitka, kterou lidé vznášejí proti participativní demokracii, že prý byla v pořádku pro starověké Atény, ale není v pořádku pro moderní státy vzhledem k jejich velikosti a pluralitnímu charakteru. Myslím si však, že skutečným vrcholem bodu programu by pro nás nyní mělo být využití umělé inteligence a digitálních technologií k umožnění této radikálnější participativní demokracie, kterou potřebujeme.
Takže si můžete představit nástroje umělé inteligence, které občanům poskytují informace přizpůsobené jejich specifickému stylu učení. Mohli byste si představit, že by sdružovaly náhodné vzorky dotčených skupin obyvatelstva a podporovaly a moderovaly jednání a debatu. A mohly by šířit konkurenční návrhy a identifikovat body shody, a to nejen prosté většiny, ale body shody, které jsou napříč různými demokratickými skupinami. Možná si teď řeknete, že to zní jako sen filozofů, ale ve skutečnosti to už existuje.
Například na Tchaj-wanu vzniklo hnutí zdola, které se stalo vládou. A toto hnutí zdola využívalo online platformu zvanou Polis. Zajímalo by mě, kde k tomu názvu přišli. Polis umožňuje občanům, aby se zapojili online do úvah a debat o otázkách typu: Jaká by měla být naše politika vůči Uberu?
A jejich úvahy se pak skutečně promítají do konečné podoby legislativy. Myslím si, že žijeme v době, kdy se lidé cítí stále více bezmocní a podléhají silám, které nemohou ovlivnit, nebo jim dokonce nerozumějí.
Závěr
A myslím, že existuje vážná hrozba, že umělá inteligence tento stav znemožnění ještě zhorší tím, že vytvoří odlidštěný svět, v němž bude uplatňování našich osobitých lidských schopností odsunuto na okraj. A to vše se bude dít pod šťastným heslem, že jde o uspokojení našich spotřebitelských preferencí. A za tím vším budou stát mocné ekonomické zájmy. Nebude snadné se tomu bránit, ale boj proti tomu musí začít přemýšlením o tom, jaké naše nejhlubší hodnoty jsou zde v sázce. Boj musí začít návratem k Sokratově otázce. Děkuji.