Jaké výrazy v umělé inteligenci se běžně používají?
Agentivní (Agentive): Systémy nebo modely, které se vyznačují schopností samostatně provádět akce k dosažení cíle. V kontextu umělé inteligence může agentivní model jednat bez neustálého dohledu, jako například autonomní automobil vysoké úrovně. Na rozdíl od „agentního“ rámce, který je v pozadí, jsou agentivní rámce v popředí a zaměřují se na uživatelskou zkušenost.
Algoritmus (Algorithm): Série instrukcí, které umožňují počítačovému programu učit se a analyzovat data určitým způsobem, například rozpoznávat vzory, aby se z nich pak sám učil a plnil úkoly.
Antropomorfismus (Anthropomorphism): Když lidé mají tendenci dávat nelidským objektům vlastnosti podobné lidským. V AI to může zahrnovat přesvědčení, že chatbot je lidem podobnější a uvědomělejší, než ve skutečnosti je, například přesvědčení, že je šťastný, smutný nebo dokonce zcela vnímavý.
Autonomní agenti (Autonomous Agents): Model umělé inteligence, který má schopnosti, programovací a další nástroje k provedení konkrétního úkolu. Například samořídící automobil je autonomní agent, protože má k dispozici senzorické vstupy, GPS a jízdní algoritmy, které mu umožňují samostatně se pohybovat po silnici.
Bezpečnost AI (AI Safety): Interdisciplinární obor, který se zabývá dlouhodobými dopady UI a tím, jak by se mohla náhle vyvinout superinteligence, která by mohla být vůči lidem nepřátelská.
Difuze (Diffusion): Metoda strojového učení, při které se vezme existující část dat, například fotografie, a přidá se náhodný šum. Difuzní modely trénují své sítě, aby tuto fotografii znovu vytvořily nebo obnovily.
Emergentní chování (Emergent Behavior): Když model umělé inteligence vykazuje nezamýšlené schopnosti.
End-to-end learning neboli E2E: Proces hlubokého učení, při kterém je model instruován, aby provedl úkol od začátku do konce. Není trénován k postupnému plnění úlohy, ale místo toho se učí ze vstupů a řeší ji najednou.
Etika umělé inteligence (AI Ethics): Zásady, jejichž cílem je zabránit tomu, aby umělá inteligence poškozovala člověka, čehož se dosahuje například určením toho, jak by systémy umělé inteligence měly shromažďovat data nebo jak by se měly vypořádat s předpojatostí.
Etické aspekty (Ethical Considerations): Uvědomění si etických důsledků umělé inteligence a otázek souvisejících se soukromím, používáním dat, spravedlností, zneužitím a dalšími bezpečnostními otázkami.
Explainability (Vysvětlitelnost): Schopnost AI systému vysvětlit důvody, proč dospěl k určitému závěru, což je klíčové pro transparentnost a důvěryhodnost AI.
Federované učení (Federated Learning): Metoda strojového učení, při které jsou modely trénovány na distribuovaných datech na různých zařízeních, aniž by byla data centralizována, což pomáhá zlepšit soukromí.
Foom: Známý také jako rychlý vzlet nebo tvrdý vzlet. Koncept, že pokud někdo sestrojí AGI, může být na záchranu lidstva již pozdě.
Generativní adverzní sítě neboli GAN (Generative Adversarial Networks): Generativní model UI složený ze dvou neuronových sítí pro generování nových dat: generátoru a diskriminátoru. Generátor vytváří nový obsah a diskriminátor kontroluje, zda je autentický.
Generativní umělá inteligence (Generative AI): Technologie generování obsahu, která využívá umělou inteligenci k vytváření textu, videa, počítačového kódu nebo obrázků. UI je zásobována velkým množstvím trénovacích dat, nachází vzory pro generování vlastních nových odpovědí, které se někdy mohou podobat zdrojovému materiálu.
Generování textu na obraz (Text-to-Image Generation): Vytváření obrázků na základě textových popisů.
Google Gemini: Chatbot s umělou inteligencí společnosti Google, který funguje podobně jako ChatGPT, ale čerpá informace z aktuálního webu, zatímco ChatGPT je omezen na data do roku 2021 a není připojen k internetu.
Halucinace (Hallucination): Nesprávná reakce umělé inteligence. Může zahrnovat generativní UI produkující odpovědi, které jsou nesprávné, ale uváděné s jistotou, jako by byly správné.
Human-in-the-Loop: Metoda trénování a provozu AI, kde jsou lidé aktivně zapojeni do rozhodovacího procesu, aby se minimalizovala rizika a zlepšila přesnost.
Hluboké učení (Deep Learning): Metoda umělé inteligence a podoblast strojového učení, která využívá více parametrů k rozpoznávání složitých vzorů v obrazech, zvucích a textech.
Kapsulové sítě (Capsule Networks): Alternativní architektura neuronových sítí, která zpracovává prostorové vztahy mezi prvky ve vstupních datech.
Kognitivní výpočetní technika (Cognitive Computing): Jiný termín pro umělou inteligenci.
Kontextové vědomí (Context Awareness): Schopnost AI pochopit a reagovat na kontext nebo situaci v rámci dané interakce nebo úkolu.
Model transformátoru (Transformer Model): Architektura neuronové sítě a model hlubokého učení, který se učí kontext sledováním vztahů v datech.
Microsoft Bing: Vyhledávač společnosti Microsoft, který nyní může využívat technologii pohánějící ChatGPT k poskytování výsledků vyhledávání na bázi umělé inteligence.
Multimodální umělá inteligence (Multimodal AI): Typ umělé inteligence, která dokáže zpracovávat více typů vstupů, včetně textu, obrázků, videí a řeči.
Neuronová síť (Neural Network): Výpočetní model, který se podobá struktuře lidského mozku a je určen k rozpoznávání vzorů v datech.
Ochranné zábrany (Guardrails): Zásady a omezení, která jsou na modely AI uvalena, aby bylo zajištěno, že s daty bude nakládáno zodpovědně a že model nebude vytvářet rušivý obsah.
Overfitting: Chyby ve strojovém učení, kdy funguje příliš v souladu s trénovacími daty a může být schopen identifikovat pouze konkrétní příklady ve zmíněných datech, ale ne nová data.
Parametry (Parameters): Číselné hodnoty, které dávají systému LLM strukturu a chování a umožňují mu provádět předpovědi.
Paperclip Maximiser (Sponky): Hypotetický scénář, kdy AI vytvoří co nejvíce kancelářských sponek, což by mohlo vést k destruktivním důsledkům pro lidstvo.
Perplexita (Perplexity): Název chatbota a vyhledávače poháněného umělou inteligencí, který využívá LLM k odpovídání na otázky a poskytování informací.
Přenosové učení (Transfer Learning): Proces, kdy model naučený na jednom úkolu aplikuje získané znalosti na jiný úkol.
Prompt: Podnět nebo otázka, kterou zadáte chatbotu s umělou inteligencí, abyste získali odpověď.
Prompt Engineering (Inženýrství promptů): Proces navrhování a vylepšování vstupních příkazů (promptů) pro generativní AI s cílem dosáhnout co nejpřesnějších nebo kreativních výsledků.
Robustnost (Robustness): Schopnost AI systému odolat změnám v datech nebo vstupních podmínkách bez ztráty výkonu.
Samozlepšující se AI (Self-improving AI): AI, která se dokáže sama vylepšovat bez lidského zásahu, což by mohlo vést k velmi rychlému pokroku a potenciálně i vzniku superinteligence.
Systém velkého jazykového modelu (Large Language Model - LLM): Model umělé inteligence, který vytváří a zpracovává text pomocí velkého množství trénovacích dat a neuronových sítí.
Syntetická data (Synthetic Data): Data vytvořená uměle, často používaná k trénování modelů umělé inteligence, když jsou reálná data nedostatečná nebo citlivá.
Superinteligence (Superintelligence): Hypotetický systém UI, který překonává schopnosti jakéhokoli lidského experta v téměř všech oblastech.
Superpočítač (Supercomputer): Počítač, který je schopen zpracovávat a analyzovat velká množství dat rychlostí, která je výrazně rychlejší než rychlost běžného počítače.
Teorie mysli (Theory of Mind): Schopnost UI systému rozpoznat, co se lidé cítí a myslí, a jednat na základě těchto předpokladů.
Turingův test (Turing Test): Test, jehož cílem je zjistit, zda umělá inteligence dokáže být natolik přesvědčivá v konverzaci s lidmi, že tito lidé nepoznají, že komunikují se strojem.
Umělá obecná inteligence (Artificial General Intelligence - AGI): Schopnost UI systému vykonávat intelektuální úkoly podobně jako člověk.
Umělá inteligence (Artificial Intelligence - AI): Vytváření strojů nebo softwaru, které mohou provádět úkoly vyžadující lidskou inteligenci.
Velké jazykové modely (Large Language Models): Modely strojového učení vyškolené na rozsáhlých textových datech, aby generovaly, doplňovaly nebo překládaly text.
Zaujatost (Bias): V kontextu umělé inteligence jde o zkreslení výsledků, které mohou vzniknout v důsledku strukturních nebo programovacích vad nebo nesprávných či nevyvážených tréninkových dat.