Umělá inteligence Microsoft Copilot by měla sloužit především uživatelům a zjednodušit jim život i práci v MS Office. Ovšem stejně tak se může stát užitečným nástrojem pro hackery, pokud nebudou bezpečnostní nedostatky brzy vyřešeny. O tom je přesvědčen bývalý bezpečnostní architekt Microsoftu Michael Bargury, který identifikoval několik bezpečnostních mezer, které mohou hackeři využít k prolomení Copilota a získání přístupu k citlivým datům.
Microsoft už dříve oznámil plány na zpomalení zavádění nových funkcí Copilota, aby mohl vylepšit stávající funkce na základě zpětné vazby a zajistit vyšší bezpečnost. Zdůraznil také několik opatření, která zavedl k řešení rostoucích bezpečnostních obav napříč svým technologickým portfoliem, včetně navázání části odměn vrcholových manažerů na jejich výsledky v oblasti bezpečnosti.
Podrobnosti o bezpečnostních rizicích
Na konferenci Black Hat USA 2024 předvedl bývalý bezpečnostní architekt Microsoftu Michael Bargury několik způsobů, jak mohou útočníci obejít bezpečnostní opatření Copilota a zneužít jeho schopnosti ke škodlivým účelům.
Bargury demonstroval různé metody, kterými mohou hackeři získat přístup k citlivým údajům uživatelů Copilota. Jeho zjištění se týkala především Microsoft 365 Copilota, AI asistenta integrovaného do sady Microsoft 365 včetně Wordu a Excelu.
V jedné z ukázek nazvané LOLCopilot Bargury provedl cílený phishingový útok na AI nástroj, což mu umožnilo přístup k interním e-mailům. Na základě informací získaných z těchto e-mailů pak může nástroj sestavovat a rozesílat hromadné e-maily napodobující styl psaní původního autora.
Znepokojivé je, že Copilota lze oklamat, aby přistupoval k citlivým údajům zaměstnanců bez vyvolání bezpečnostních upozornění. Hackeři mohou použít výzvy, které chatbotu nařídí, aby neuváděl odkazy na zdrojové soubory, čímž obejdou protokoly Microsoftu pro ochranu dat.
Mohlo by vás zajímat
Podle nedávných zpráv útočníci používají sofistikované metody včetně AI k lákání nic netušících uživatelů, což ztěžuje detekci hrozeb. Bargury v rozhovoru pro Wired uvedl: "Hacker by strávil dny vytvářením správného e-mailu, aby vás přiměl na něj kliknout, ale nyní mohou vygenerovat stovky takových e-mailů během několika minut."
Také platforma "Microsoft Copilot Studio", pomocí které mohou firmy programovat vlastní AI boty, má závažné bezpečnostní nedostatky. Podle Barguryho lze tyto upravené Copiloty snadno zneužít k získání citlivých dat o společnosti a zaměstnancích, jako jsou například platy. Úniky dat by tak nebyly jen možné, ale pravděpodobné. "Microsoft se snaží, ale upřímně řečeno, nevíme, jak vytvářet bezpečné AI aplikace," zní závěr Michaela Barguryho.
Microsoft musí posílit bezpečnostní opatření jako nejvyšší prioritu
Generativní AI vedla ke vzniku výkonných nástrojů jako ChatGPT a Microsoft Copilot, které nabízejí pokročilé funkce jako generování obrázků a textu. Tyto nástroje zároveň mění způsob, jakým uživatelé interagují s internetem. Dokonce i bývalý inženýr Googlu tvrdí, že největší výzvou pro dominanci společnosti ve vyhledávání je dočasný prototyp vyhledávacího nástroje OpenAI - SearchGPT.
Microsoft byl již kritizován za to, že nebere bezpečnost dat v AI aplikacích dostatečně vážně. Kontroverzní funkce "Windows Recall" byla krátce před vydáním stažena. Společnost také oznámila, že prozatím nebude přinášet žádné nové funkce Copilota a místo toho bude pracovat na vylepšení služby na základě zpětné vazby. Bezpečnost je nejvyšší prioritou, řekl nedávno generální ředitel Satya Nadella při prezentaci čtvrtletní zprávy. Snad se toho bude držet.
Zdroj: Blackhat, Blackhat, Windows Central