Článek přečtěte do 7 min.

Umělá inteligence již ukazuje svůj potenciál přetvořit téměř každý aspekt kybernetické bezpečnosti – v dobrém i ve zlém.

Pokud něco představuje příslovečný dvousečný meč, může to být umělá inteligence: Může fungovat jako impozantní nástroj při vytváření robustní ochrany kybernetické bezpečnosti nebo ji může nebezpečně ohrozit, pokud je použita jako zbraň.

Proč je bezpečnost AI důležitá?

Je na organizacích, aby porozuměly příslibům i problémům spojeným s kybernetickou bezpečností AI kvůli všudypřítomnosti všech iterací AI v globálním podnikání. Jeho použití špatnými herci je již zdrojem obav.

Podle společnosti McKinsey vzrostlo přijetí AI organizacemi v roce 2024 na 72 %, oproti přibližně 50 % v předchozích letech v různých regionech a odvětvích. Ale složitá povaha a rozsáhlé požadavky na data systémů AI z nich také činí hlavní cíle kybernetických útoků. Vstupní data pro systémy umělé inteligence mohou být například lstivě zmanipulována při nepřátelských útocích za účelem vytvoření nesprávných nebo škodlivých výstupů.

Narušená umělá inteligence může vést ke katastrofickým následkům, včetně narušení dat, finančních ztrát, poškození pověsti a dokonce i fyzické újmy. Vyhlídky na zneužití jsou obrovské, což podtrhuje zásadní potřebu robustních bezpečnostních opatření AI.

Výzkum Světového ekonomického fóra zjistil, že téměř polovina vedoucích pracovníků se nejvíce obává toho, jak umělá inteligence zvýší úroveň rizika z hrozeb, jako je phishing. Zpráva Ivanti o kybernetické bezpečnosti z roku 2024 tyto obavy potvrdila.

Navzdory rizikům stejná zpráva Ivanti zjistila, že IT a bezpečnostní profesionálové jsou z velké části optimističtí, pokud jde o dopad kybernetické bezpečnosti AI. Téměř polovina (46 %) to považuje za čistě pozitivní, zatímco 44 % si myslí, že jeho dopad nebude ani pozitivní, ani negativní.

Potenciální kybernetické hrozby AI

AI zavádí nové útočné vektory, které vyžadují specifickou obranu.

Příklady:

  • Hackování stránek: Výzkumníci zjistili, že velký jazykový model OpenAI může být přepracován jako agent AI hacking schopný autonomně útočit na webové stránky. Kybernetický podvodníci nepotřebují hackerské dovednosti, pouze schopnost správně přimět AI, aby dělala svou špinavou práci.
  • Otrava dat: Útočníci mohou manipulovat s daty používanými k trénování modelů AI, takže selhávají. To by mohlo zahrnovat vkládání falešných datových bodů, které ovlivňují model, aby se naučil nesprávné vzorce nebo upřednostňování neexistujících hrozeb, nebo jemné úpravy existujících datových bodů tak, aby model umělé inteligence přivedl k výsledkům, z nichž má prospěch útočník.
  • Techniky úniků: Umělá inteligence by mohla být použita k vývoji technik, které se vyhýbají detekci bezpečnostními systémy, jako je vytváření e-mailů nebo malwaru, které lidem nevypadají podezřele, ale spouštějí zranitelnosti nebo obcházejí bezpečnostní filtry.
  • Pokročilé sociální inženýrství: Protože může AI analyzovat velké soubory dat, může identifikovat cíle na základě určitých kritérií, jako je zranitelné minulé chování nebo náchylnost k určitým podvodům. Poté může útok zautomatizovat a personalizovat pomocí relevantních informací získaných z profilů sociálních sítí nebo předchozích interakcí, takže je uvěřitelnější a pravděpodobně oklame příjemce. Navíc může generativní umělá inteligence navrhovat phishingové zprávy bez gramatických chyb nebo chyb v používání, aby vypadaly legitimně.
  • Denial-of-service (DoS) útoky: AI lze použít k organizování rozsáhlých DoS útoků, proti kterým je obtížnější se bránit. Analýzou konfigurací sítě dokáže detekovat zranitelnosti a efektivněji spravovat botnety, když se snaží zahltit systém provozem.
  • Deepfakes: Umělá inteligence může vytvářet přesvědčivé vizuální nebo zvukové imitace lidí pro útoky na zosobnění. Mohlo by například napodobovat hlas vysoce postaveného vedoucího pracovníka, který by přiměl zaměstnance, aby převáděli peníze na podvodné účty, sdíleli citlivé informace, jako jsou hesla nebo přístupové kódy, nebo schvalovali neautorizované faktury nebo transakce. Pokud společnost používá rozpoznávání hlasu ve svých bezpečnostních systémech, dobře vytvořený deepfake může tato zabezpečení oklamat a získat přístup k zabezpečeným oblastem nebo datům. Jedna hongkongská společnost byla okradena o 26 milionů dolarů prostřednictvím falešného podvodu.

„Měkkou“ hrozbou, kterou AI představuje, je samolibost. Vždy existuje riziko nadměrného spoléhání se na systémy AI, což může vést k laxnosti při jejich sledování a aktualizaci. Jedním z nejdůležitějších opatření pro ochranu podniku před problémy s umělou inteligencí je neustálé školení a monitorování, ať už je umělá inteligence nasazena v kybernetické bezpečnosti nebo v jiných operacích. Zajištění toho, aby umělá inteligence fungovala s ohledem na nejlepší zájmy organizace, vyžaduje neustálou ostražitost.

Výhody kybernetické bezpečnosti AI

Řešení kybernetické bezpečnosti AI přinášejí organizaci nejvýznamnější hodnotu následujícími způsoby:

Vylepšená detekce hrozeb

Umělá inteligence vyniká v identifikaci vzorů v rozsáhlých souborech dat, aby mohla s nebývalou přesností odhalovat anomálie svědčící o kybernetických útocích. Zatímco lidské analytiky by objem dat nebo výstrah zahltil, umělá inteligence zlepšuje včasnou detekci a reakci.

Vylepšená reakce na incidenty

Umělá inteligence dokáže automatizovat rutinní úlohy reakce na incidenty, zrychluje dobu odezvy a minimalizuje lidské chyby. Analýzou minulých incidentů může umělá inteligence také předvídat potenciální vektory útoků, takže organizace mohou posílit obranu.

Hodnocení rizik a stanovení priorit

Umělá inteligence dokáže vyhodnotit bezpečnostní pozici organizace, identifikovat zranitelná místa a upřednostňovat nápravná opatření na základě úrovní rizik. To pomáhá optimalizovat alokaci zdrojů a zaměřit se na kritické oblasti.

Bezpečnostní aspekty pro různé typy AI

Bezpečnostní výzvy spojené s umělou inteligencí se liší v závislosti na nasazovaném typu.

Pokud společnost používá generativní umělou inteligenci, měla by se zaměřit na ochranu školicích dat, prevenci otravy modelů a ochranu duševního vlastnictví.

V případě slabé (nebo „úzké“) umělé inteligence, jako jsou chatboti zákaznické podpory, systémy doporučení (jako Netflix), software pro rozpoznávání obrazu, montážní linka a chirurgickí roboti, by organizace měla upřednostňovat zabezpečení dat, odolnost proti nepřátelům a vysvětlitelnost.

Autonomní „silná“ AI (aka Artificial General Intelligence) je nedokončená práce, která ještě neexistuje. Pokud ale přijde, měly by se firmy zaměřit na obranu kontrolních mechanismů a řešení existenčních rizik a etických důsledků.

Nejnovější vývoj v kybernetické bezpečnosti AI

Rychlý vývoj AI je hnacím motorem odpovídajících pokroků v kybernetické bezpečnosti AI, které zahrnují:

  • Generativní modelování hrozeb AI: Nástroje pro kybernetickou bezpečnost AI mohou simulovat scénáře útoků a pomoci organizacím proaktivně najít a opravit zranitelná místa.
  • Hledání hrozeb poháněné umělou inteligencí: Umělá inteligence dokáže analyzovat síťový provoz a systémové protokoly a detekovat škodlivé aktivity a potenciální hrozby.
  • Automatizovaná reakce na incidenty: Řešení kybernetické bezpečnosti AI mohou automatizovat rutinní úlohy reakce na incidenty, jako je izolace kompromitovaných systémů a zadržování hrozeb.
  • Umělá inteligence pro hodnocení zranitelnosti: Dokáže analyzovat softwarový kód a najít možná zranitelnosti, aby vývojáři mohli vytvářet bezpečnější aplikace.

Kurzy kybernetické bezpečnosti AI

Investice do vzdělávání v oblasti kybernetické bezpečnosti v oblasti umělé inteligence jsou zásadní pro vybudování pracovní síly, která rozumí tomu, jak tyto nástroje používat. Četné online platformy a univerzity nabízejí kurzy pokrývající různé aspekty zabezpečení AI, od základních znalostí až po pokročilá témata.

Špičkoví poskytovatelé řešení pro kybernetickou bezpečnost nabídnou širokou škálu kurzů a školení, aby váš tým získal dovednosti, které potřebuje, aby z vaší platformy vytěžil maximum.

Nejlepší postupy pro kybernetickou bezpečnost AI

Zavedení komplexní strategie pro uvedení umělé inteligence do praxe pro kybernetickou bezpečnost je zásadní.

1. Stanovte zásady správy dat a ochrany osobních údajů

Na začátku procesu přijetí zaveďte robustní zásady správy dat, které zahrnují anonymizaci dat, šifrování a další. Zapojte do tohoto procesu všechny relevantní zainteresované strany.

2. Nařídit transparentnost umělé inteligence

Vyvíjet nebo licencovat modely umělé inteligence, které mohou poskytnout jasná vysvětlení jejich rozhodnutí, spíše než používat modely „černé skříňky“. Je to proto, aby bezpečnostní profesionálové mohli pochopit, jak AI dospívá ke svým závěrům, a identifikovat potenciální předsudky nebo chyby. Tyto modely „skleněné krabice“ poskytují nástroje Fiddler AI, DarwinAI, H2O.ai a IBM Watson, jako jsou AI Fairness 360 a AI Explainability 360.

3. Zdůrazněte silnou správu dat

  • Modely AI spoléhají na kvalitu dat používaných pro trénink. Ujistěte se, že používáte různorodá, přesná a aktuální data, aby se vaše umělá inteligence mohla učit a efektivně identifikovat hrozby.
  • Zaveďte robustní bezpečnostní opatření na ochranu dat používaných při školení a provozu modelu AI, protože některá mohou být citlivá. Jakékoli porušení by jej mohlo odhalit, ohrozit účinnost AI nebo zavést zranitelnosti.
  • Mějte na paměti potenciální zkreslení ve vašich tréninkových datech. Předpojatost může vést AI k tomu, že upřednostňuje určité typy hrozeb nebo přehlíží jiné. Pravidelně sledujte a omezujte zkreslení, abyste zajistili, že vaše umělá inteligence činí objektivní rozhodnutí.

4. Poskytněte modelům umělé inteligence trénink protivníka

Během tréninkové fáze vystavte modely umělé inteligence škodlivým vstupům, aby byly schopny rozpoznat a čelit nepřátelským útokům, jako je otrava dat.

5. Zaveďte průběžné monitorování

  • Provádějte soustavné monitorování a systémy detekce hrozeb, abyste identifikovali zkreslení a snížení výkonu.
  • Použijte systémy detekce anomálií k identifikaci neobvyklého chování ve vašich modelech AI nebo vzorcích síťového provozu, abyste odhalili potenciální útoky AI, které se snaží manipulovat s daty nebo zneužívat zranitelnosti.
  • Pravidelně přeškolujte své modely kybernetické bezpečnosti AI s novými daty a aktualizujte algoritmy, abyste zajistili, že zůstanou účinné proti vyvíjejícím se hrozbám.

6. AI není neomylná

Udržujte lidský dohled a bezpečnostní profesionálové kontrolují a ověřují výstupy umělé inteligence, aby zachytili potenciální zkreslení umělé inteligence, falešně pozitivní nebo zmanipulované výsledky, které by umělá inteligence mohla generovat.

7. Provádějte pravidelné testování a audity

  • Pravidelně vyhodnocujte zranitelnost svých modelů AI. Jako každý software mohou mít produkty kybernetické bezpečnosti AI slabiny, které mohou útočníci využít. Jejich okamžitá oprava je zásadní.
  • Modely umělé inteligence mohou generovat falešné poplachy a identifikovat neexistující hrozby. Přijměte strategie k minimalizaci falešných poplachů a vyhněte se zahlcení bezpečnostních týmů irelevantními výstrahami.
  • Provádějte časté testování zabezpečení svých modelů umělé inteligence, abyste zjistili slabá místa, která by útočníci mohli zneužít. Penetrační testování výslovně navržené pro systémy AI může být velmi cenné.

8. Mějte plán reakce na incidenty

Vytvořte komplexní plán reakce na incidenty pro efektivní řešení bezpečnostních incidentů souvisejících s AI.

9. Zdůrazněte školení zaměstnanců

  • Poučte zaměstnance o rizicích spojených s umělou inteligencí a o tom, jak je možné využít taktiky sociálního inženýrství k jejich zmanipulování, aby ohrozili systémy umělé inteligence nebo zabezpečení dat.
  • Provádějte cvičení s červeným týmem, která simulují útoky poháněné umělou inteligencí, které vám pomohou otestovat vaši pozici zabezpečení a odhalit slabá místa, která by útočníci mohli zneužít.
  • Spolupracujte s odborníky z oboru a bezpečnostními výzkumníky, abyste měli přehled o nejnovějších hrozbách umělé inteligence a osvědčených postupech, jak jim čelit.

10. Institut řízení rizik AI třetích stran

Pečlivě vyhodnoťte bezpečnostní postupy poskytovatelů AI třetích stran. Sdílejí data s jinými stranami nebo používají veřejné datové sady? Dodržují zásady Secure by Design?

11. Další osvědčené postupy

  • Integrujte své řešení AI s informačními kanály hrozeb, aby mohlo začlenit data o hrozbách v reálném čase a udržet si náskok před novými vektory útoků.
  • Zajistěte, aby vaše řešení AI bylo v souladu s příslušnými průmyslovými standardy a předpisy. V některých odvětvích je to povinné. Například v automobilovém a výrobním sektoru musí umělá inteligence splňovat normu ISO 26262 pro funkční bezpečnost automobilů, obecné nařízení o ochraně dat (GDPR) pro ochranu osobních údajů a pokyny Národního institutu pro standardy a technologie. Umělá inteligence ve zdravotnictví musí být v souladu se zákonem Health Insurance Portability and Accountability Act v USA, GDPR v Evropě a předpisy FDA pro zdravotnická zařízení založená na AI.
  • Sledujte metriky, jako je míra detekce hrozeb, falešné poplachy a doby odezvy. Tímto způsobem budete znát efektivitu své umělé inteligence a oblasti pro zlepšení.

Vyhrajte tím, že budete vyrovnaní

Pro každou organizaci, která se pouští do této odvážné nové hranice kybernetické bezpečnosti AI, je cestou vpřed vyvážený přístup. Využijte hojné silné stránky AI – ale buďte ostražití, pokud jde o její omezení a potenciální zranitelnosti.

Jako každá technologie není AI ve své podstatě dobrá nebo špatná; používají ho dobří i špatní herci. Vždy pamatujte, že s umělou inteligencí zacházejte jako s jakýmkoliv jiným nástrojem: Respektujte ji za to, co vám může pomoci, ale mějte se na pozoru před tím, co může poškodit.

Zajímá vás problematika Ivanti? Pro více informací nás neváhejte kontaktovat.

Zdroj: Ivanti