Co je ještě žhavější než GenAI?
To je snadné: GenAI plus generace rozšířená o vyhledávání (RAG). Proč? Protože RAG může řešit hlavní omezení velkých jazykových modelů (LLM). Přístup založený na RAG umožňuje GenAI poskytovat odpovědi, které jsou jak kontextově relevantní, tak přesné, dokonce i s úzce specializovanými a vysoce specifickými informacemi. Jak? Dynamickým načítáním dat z podnikových aplikací za účelem generování podrobného a relevantního obsahu. Díky správným implementacím a bezpečnostním funkcím RAG slibuje, že z GenAI učiní definující funkci nové generace podnikových aplikací. Tento příspěvek vysvětluje základy RAG a jak jej nasazujeme do Fusion Apps.
Pochopení limitů LLM
GenAI používá LLM – trénované na obrovském množství dat – k pochopení, shrnutí a vytváření nového obsahu na základě pokynů nebo „výzev“. Jednou z nevýhod LLM je, že jejich odpovědi jsou omezeny na informace, na kterých jsou vyškoleni. Nefungují tedy dobře u úkolů, které vyžadují nová nebo citlivá soukromá data.
LLM se potýkají s úkoly, které:
- Spolehněte se na důvěrné informace, jako je porovnávání zdrojů příjmů a částek v po sobě jdoucích čtvrtletích
- Jsou specifické pro jednotlivce, například vysvětlují, jak byl nashromážděn aktuální počet dnů dovolené této osoby
- Používejte data, která neustále kolísají, jako je hodnocení solventnosti dodavatele na základě finančních výkazů a úvěrových ratingů
Pravidelné přeškolování LLM, aby byl aktualizován, je neúměrně drahé, náročné na zdroje a nepraktické, a přesto by nevyřešilo problém důvěrnosti.
Zadejte RAG
Jednoduše řečeno, RAG pomáhá LLM poskytovat lepší odpovědi tím, že mu poskytuje aktuální, relevantní informace. Na základě kontextu uživatelského požadavku RAG načte a bezpečně umožní LLM používat informace o společnosti, jejích zaměstnancích a dodavatelích – nebo cokoli jiného v připojeném podnikovém datovém úložišti. A může fungovat snížením bezpečnostních rizik prostřednictvím tokenizace a šifrování (viz podrobnosti níže).
Jak RAG funguje ve Fusion Apps
RAG ve Fusion Apps využívá sémantické vyhledávání k získání relevantních dat pro funkce založené na GenAI. Sémantické vyhledávání umožňuje porozumět záměru uživatelské výzvy tím, že bere v úvahu kontext – věci, jako je poloha, historie vyhledávání, varianty slov a fráze. Poté pomocí technik strojového učení najde informace uložené ve Fusion Apps, které nejlépe odpovídají na výzvu.
Konkrétní kroky jsou následující:
- Zadání výzvy: Uživatel zadá otázku nebo výzvu.
- Načítání dokumentů: Systém zpracovává dotaz, aby načetl nejrelevantnější data z předem definovaného úložiště dat.
- Tokenizace: Data specifická pro společnost vybraná pro použití v žádosti LLM jsou považována za důvěrná a jsou před předáním LLM tokenizována, aby byla zajištěna anonymita. Podle definice nemají tokenizovaná data žádný vlastní význam ani hodnotu.
- Integrace obsahu: Načtená, tokenizovaná data jsou poté vložena do LLM spolu s původním dotazem. Tento krok je zásadní, protože rozšiřuje informace dostupné generativnímu modelu, což mu umožňuje vytvářet přesnější a kontextově přiměřenější odpovědi.
- Generování obsahu: LLM generuje odpověď pomocí získaných dat i původního dotazu uživatele. Model může interpolovat mezi informacemi v načtených, tokenizovaných datech a jejich předtrénovanými znalostmi, a tím generovat vysoce relevantní, podrobné odpovědi.
- Detokenizace: Data z kroku 3 se rekonstituují a obnoví se jejich význam ve Fusion Apps.
- Výstup: Konečný vygenerovaný obsah je poté prezentován jako odpověď na výzvu uživatele.
Další výhoda
RAG nabízí další výhody, než je samozřejmé využití aktuálních důvěrných dat k poskytování odpovědí specifických pro společnost a uživatele. Obecně řečeno, LLM nemohou uvádět zdroj informací poskytnutých v odpovědi kvůli obrovskému množství dat, na kterých jsou školeni. Odpovědi generované RAG však mohou, protože pocházejí ze specifického známého úložiště dat. To také umožňuje identifikovat – a opravit – chybná data u zdroje. Na rozdíl od přeškolování LLM, které je časově náročné a drahé, je poměrně levné pravidelně aktualizovat informace v datových úložištích, která RAG používá.
Zabezpečení Fusion Apps
Implementace RAG společností Oracle řeší problémy s důvěrností. Připojuje se k podnikovým datům, která již jsou v datových řešeních dodávaných společností Oracle; a může běžet bez přesouvání dat tam a zpět mezi databázemi, což je rychlejší, nákladově efektivnější a snižuje bezpečnostní rizika.
Případy použití RAG ve Fusion Apps
Zde jsou dva konkrétní případy použití, které ukazují, jak může RAG ve Fusion Apps pomoci zaměstnancům a organizacím pracovat efektivněji a efektivněji:
- HCM Benefits Advisor používá RAG k poskytování personalizovaných, přesných a konkrétních doporučení v reakci na dotazy zaměstnanců v přirozeném jazyce (např. „Pokud můj syn dostane rovnátka, kolik nákladů pokryje moje zubní pojištění?“). Dělá to načítáním a zpracováním dat z dokumentace controllingových výhod.
- Oracle Cloud Procurement používá RAG k automatickému extrahování a shrnutí informací nalezených v dokumentech, které doprovázejí registrace potenciálních dodavatelů. To pomáhá s hodnocením dodavatelů, řízením rizik a onboardingem. Je to výhodné zejména pro organizace zaměřené na dodržování předpisů a diverzifikaci dodavatelů.
Závěrem o GenAI
Síla a možnosti LLM a GenAI jsou široce známé a srozumitelné. RAG staví na výhodách LLM tím, že odpovědi jsou včasnější, přesnější a kontextově relevantnější. Pro podnikové aplikace je RAG důležitým technologickým pokrokem, který je příslibem rozšíření užitečnosti LLM bez ohrožení bezpečnosti.
Zdroj: Oracle