Článek přečtěte do 3 min.

Co je ještě žhavější než GenAI?

To je snadné: GenAI plus generace rozšířená o vyhledávání (RAG). Proč? Protože RAG může řešit hlavní omezení velkých jazykových modelů (LLM). Přístup založený na RAG umožňuje GenAI poskytovat odpovědi, které jsou jak kontextově relevantní, tak přesné, dokonce i s úzce specializovanými a vysoce specifickými informacemi. Jak? Dynamickým načítáním dat z podnikových aplikací za účelem generování podrobného a relevantního obsahu. Díky správným implementacím a bezpečnostním funkcím RAG slibuje, že z GenAI učiní definující funkci nové generace podnikových aplikací. Tento příspěvek vysvětluje základy RAG a jak jej nasazujeme do Fusion Apps.

Pochopení limitů LLM

GenAI používá LLM – trénované na obrovském množství dat – k pochopení, shrnutí a vytváření nového obsahu na základě pokynů nebo „výzev“. Jednou z nevýhod LLM je, že jejich odpovědi jsou omezeny na informace, na kterých jsou vyškoleni. Nefungují tedy dobře u úkolů, které vyžadují nová nebo citlivá soukromá data.

LLM se potýkají s úkoly, které:

  • Spolehněte se na důvěrné informace, jako je porovnávání zdrojů příjmů a částek v po sobě jdoucích čtvrtletích
  • Jsou specifické pro jednotlivce, například vysvětlují, jak byl nashromážděn aktuální počet dnů dovolené této osoby
  • Používejte data, která neustále kolísají, jako je hodnocení solventnosti dodavatele na základě finančních výkazů a úvěrových ratingů

Pravidelné přeškolování LLM, aby byl aktualizován, je neúměrně drahé, náročné na zdroje a nepraktické, a přesto by nevyřešilo problém důvěrnosti.

Zadejte RAG

Jednoduše řečeno, RAG pomáhá LLM poskytovat lepší odpovědi tím, že mu poskytuje aktuální, relevantní informace. Na základě kontextu uživatelského požadavku RAG načte a bezpečně umožní LLM používat informace o společnosti, jejích zaměstnancích a dodavatelích – nebo cokoli jiného v připojeném podnikovém datovém úložišti. A může fungovat snížením bezpečnostních rizik prostřednictvím tokenizace a šifrování (viz podrobnosti níže).

Jak RAG funguje ve Fusion Apps

RAG ve Fusion Apps využívá sémantické vyhledávání k získání relevantních dat pro funkce založené na GenAI. Sémantické vyhledávání umožňuje porozumět záměru uživatelské výzvy tím, že bere v úvahu kontext – věci, jako je poloha, historie vyhledávání, varianty slov a fráze. Poté pomocí technik strojového učení najde informace uložené ve Fusion Apps, které nejlépe odpovídají na výzvu.

Konkrétní kroky jsou následující:

  1. Zadání výzvy: Uživatel zadá otázku nebo výzvu.
  2. Načítání dokumentů: Systém zpracovává dotaz, aby načetl nejrelevantnější data z předem definovaného úložiště dat.
  3. Tokenizace: Data specifická pro společnost vybraná pro použití v žádosti LLM jsou považována za důvěrná a jsou před předáním LLM tokenizována, aby byla zajištěna anonymita. Podle definice nemají tokenizovaná data žádný vlastní význam ani hodnotu.
  4. Integrace obsahu: Načtená, tokenizovaná data jsou poté vložena do LLM spolu s původním dotazem. Tento krok je zásadní, protože rozšiřuje informace dostupné generativnímu modelu, což mu umožňuje vytvářet přesnější a kontextově přiměřenější odpovědi.
  5. Generování obsahu: LLM generuje odpověď pomocí získaných dat i původního dotazu uživatele. Model může interpolovat mezi informacemi v načtených, tokenizovaných datech a jejich předtrénovanými znalostmi, a tím generovat vysoce relevantní, podrobné odpovědi.
  6. Detokenizace: Data z kroku 3 se rekonstituují a obnoví se jejich význam ve Fusion Apps.
  7. Výstup: Konečný vygenerovaný obsah je poté prezentován jako odpověď na výzvu uživatele.

Další výhoda

RAG nabízí další výhody, než je samozřejmé využití aktuálních důvěrných dat k poskytování odpovědí specifických pro společnost a uživatele. Obecně řečeno, LLM nemohou uvádět zdroj informací poskytnutých v odpovědi kvůli obrovskému množství dat, na kterých jsou školeni. Odpovědi generované RAG však mohou, protože pocházejí ze specifického známého úložiště dat. To také umožňuje identifikovat – a opravit – chybná data u zdroje. Na rozdíl od přeškolování LLM, které je časově náročné a drahé, je poměrně levné pravidelně aktualizovat informace v datových úložištích, která RAG používá.

Zabezpečení Fusion Apps

Implementace RAG společností Oracle řeší problémy s důvěrností. Připojuje se k podnikovým datům, která již jsou v datových řešeních dodávaných společností Oracle; a může běžet bez přesouvání dat tam a zpět mezi databázemi, což je rychlejší, nákladově efektivnější a snižuje bezpečnostní rizika.

Případy použití RAG ve Fusion Apps

Zde jsou dva konkrétní případy použití, které ukazují, jak může RAG ve Fusion Apps pomoci zaměstnancům a organizacím pracovat efektivněji a efektivněji:

  • HCM Benefits Advisor používá RAG k poskytování personalizovaných, přesných a konkrétních doporučení v reakci na dotazy zaměstnanců v přirozeném jazyce (např. „Pokud můj syn dostane rovnátka, kolik nákladů pokryje moje zubní pojištění?“). Dělá to načítáním a zpracováním dat z dokumentace controllingových výhod.
  • Oracle Cloud Procurement používá RAG k automatickému extrahování a shrnutí informací nalezených v dokumentech, které doprovázejí registrace potenciálních dodavatelů. To pomáhá s hodnocením dodavatelů, řízením rizik a onboardingem. Je to výhodné zejména pro organizace zaměřené na dodržování předpisů a diverzifikaci dodavatelů.

Závěrem o GenAI

Síla a možnosti LLM a GenAI jsou široce známé a srozumitelné. RAG staví na výhodách LLM tím, že odpovědi jsou včasnější, přesnější a kontextově relevantnější. Pro podnikové aplikace je RAG důležitým technologickým pokrokem, který je příslibem rozšíření užitečnosti LLM bez ohrožení bezpečnosti.

Zdroj: Oracle