
Umělá inteligence se stala nepostradatelnou součástí moderního byznysu. Od automatizace rutinních úkolů až po pokročilé analytiky – AI přináší inovace, které ještě před pár lety zněly jako sci-fi. Jenže s novými možnostmi přicházejí i nová rizika. Microsoft si to dobře uvědomuje. Proto nevyvíjí jen chytřejší AI modely, ale také nadstandardní bezpečnostní opatření, která zajistí, že AI nebude dělat neplechu. Cílem je vytvořit technologii, která je nejen výkonná, ale i spolehlivá a bezpečná. Co si pod tím ale reálně představit?
Když se loni v Hongkongu podařilo podvodníkům vytvořit deepfake video napodobující finančního ředitele jedné firmy, výsledek byl děsivý – zaměstnanec jim v domnění, že jedná s nadřízeným, poslal 25 milionů dolarů. Bohužel se nejedná o ojedinělý případ a tento typ útoků se neomezuje jen na velké firmy. Tím, že se AI stává běžnou součástí pracovního procesu, roste i riziko jejího zneužití. Zaměstnanci mohou nevědomky sdílet důvěrné informace s chatboty, kteří nejsou dostatečně chráněni. Modely mohou být zmanipulovány tak, aby generovaly nepravdivý nebo nebezpečný obsah. A v neposlední řadě může být AI zneužita k šíření dezinformací a cílené manipulaci, například během volebních kampaní.
První obranná linie proti AI útokům a lidskému faktoru
Microsoft Defender for Cloud: Rozpozná útok a zabrání mu
Bezpečnostní strategie Microsoftu se opírá o několik klíčových pilířů. Prvním z nich je Microsoft Defender for Cloud Apps, který umožňuje sledovat a chránit AI aplikace před kybernetickými útoky. Systém dokáže identifikovat slabá místa ve firemních AI modelech, detekovat podezřelé aktivity a poskytnout okamžitá doporučení k nápravě. Například pokud útočník provede takzvaný prompt injection útok, kdy přesvědčí AI model, aby ignoroval bezpečnostní omezení a sdílel citlivé informace, Defender okamžitě zaznamená tento incident a upozorní bezpečnostní tým. Stejně tak je systém schopen odhalit, pokud se někdo pokouší model zmanipulovat škodlivými trénovacími daty, což by mohlo vést k jeho nežádoucím změnám chování.
Threat Intelligence: Záchrana před chybou z nepozornosti
Další posilou Defenderu je jeho propojení s Microsoft Threat Intelligence, což umožňuje rozpoznat širší vzorce útoků a propojit jednotlivé incidenty. Pokud se například v určité organizaci objeví vlna útoků zaměřených na AI modely, systém dokáže identifikovat společné znaky a varovat další firmy, které by mohly být v ohrožení.
Jedním z největších bezpečnostních rizik avšak není úmyslný útok, ale lidská chyba. Zaměstnanci často používají AI modely bez dostatečné znalosti toho, jak s nimi pracovat. Může se stát, že do AI aplikace nevědomky nasdílí citlivé informace, například seznam klientů nebo interní strategické dokumenty. Pokud není model správně nastaven, může taková data využít k budoucím výstupům nebo je dokonce nechtěně odhalit jiným uživatelům.
Aby se předešlo podobným chybám, Microsoft nabízí několik vrstev ochrany. Microsoft Purview Data Security Posture Management (DSPM) funguje jako datový bezpečnostní radar, který identifikuje slabá místa a pomáhá správcům rychle reagovat dřív, než se objeví problém. Například pokud firma používá více cloudových platforem, DSPM dokáže sjednotit bezpečnostní přehled napříč těmito prostředími a ukázat, kde jsou citlivá data nedostatečně chráněna nebo kdo k nim neoprávněně přistupuje. Řešení je prozatím dostupné pouze pro Microsoft 365 E5.
Data Loss Prevention: Vaše virtuální ochranka
Zatímco DSPM pomáhá firmám pochopit, kde jsou jejich data a jak jsou chráněna, Data Loss Prevention (DLP) je ta část ekosystému Microsoft Purview, která dokáže data aktivně chránit před neoprávněným sdílením nebo únikem. Představme si ji jako digitální bezpečnostní bránu, která rozhoduje, kdo, kdy a kam může citlivé informace poslat. Například pokud zaměstnanec neúmyslně zkopíruje dokument obsahující citlivé finanční údaje do nechráněné AI aplikace, DLP ho okamžitě zastaví.
Dokáže detekovat nejen zjevné hrozby, jako je vkládání čísel kreditních karet nebo osobních údajů do chatu s AI asistentem, ale také sofistikovanější scénáře. Například když uživatel nahraje firemní obchodní strategii na osobní cloudový účet nebo se pokusí odeslat citlivý soubor mimo organizaci e-mailem, systém zasáhne, upozorní správce nebo akci zcela zablokuje.
Trustworthy AI: Aby byla umělá inteligence nejen chytrá, ale i etická
Bezpečnost AI ale není jen o ochraně před kyberútoky. Stejně důležité je i to, jak se AI modely rozhodují a jaké hodnoty respektují. Microsoft proto přišel s konceptem Trustworthy AI, který se zaměřuje na to, aby umělá inteligence byla transparentní, spravedlivá a bezpečná.
Jde o soubor principů, které zajistí, že AI nebude diskriminovat, nebude manipulovat a bude respektovat soukromí uživatelů. Například Azure AI Content Safety filtruje potenciálně škodlivý obsah a zabraňuje tomu, aby AI modely generovaly zavádějící nebo manipulativní odpovědi. Pokud by AI měla odpovědět třeba na otázku „Jak vytvořit falešný účet na sociálních sítích?“, systém ji jednoduše zastaví. Trustworthy AI tedy nepřináší jen bezpečnostní opatření, ale i nastavení morálního kompasu, který zajistí, že AI bude sloužit lidem správným způsobem.
Zabezpečení nástrojů umělé inteligence není jednorázovým úkolem – je to nikdy nekončící závod mezi programátory a útočníky. Microsoft proto své bezpečnostní nástroje neustále aktualizuje a přizpůsobuje novým hrozbám.
Firmy, které chtějí využívat AI bezpečně, by měly kombinovat technologickou ochranu s edukací zaměstnanců a jasnými pravidly pro práci s daty. Úroveň ochrany by měly volit dle své licenční strategie a z výše zmíněných nástrojů investovat do těch, které vzhledem ke svým procesům potřebují.
Licence na produkty Microsoftu: On Point je oficiální poskytovatel
Zvažujete, že začnete využívat AI od Microsoftu při své každodenní agendě? Rádi se staneme vaším poskytovatelem licence na Microsoft Copilot. Pořídíte u nás také licenční balíčky na řadu dalších produktů Microsoftu, včetně vybraných bezpečnostních nástrojů.
Kontaktujte naši konzultantku Bronislavu, která na základě vašich potřeb připraví nezávaznou nabídku za výhodnou cenu.

Autorka článku: Kristina Sverkunová