Jedním z největších technologických témat současnosti je umělá inteligence. Ze všech stran se na nás valí, jak pozitivně změní naše životy. Ne vše je tak pozitivní. Na nedávné konferenci Black Hat USA ukázal bezpečností výzkumník Michael Bargury alarmující zranitelnost Microsoft Copilot, která umožňuje útočníkům zneužít tento nástroj poháněný AI ke svým účelům. Napsal o tom server Cyber Security News.
Bargury ve své prezentaci ukázal několik metod, pomocí nichž mohou hackeři využít Microsoft Copilot k provádění kybernetických útoků. Jedním z klíčových odhalení je použití zásuvných modulů, které Copilot používá k rozšíření možností umělé inteligence k instalaci zadních vrátek do interakcí ostatních uživatelům.
To kyberzločincům usnadní krádeže citlivých dat a umožní jim tom efektivní využívání sociální inženýrství pomocí AI. Pomocí injekce promptů mohou hackeři zmanipulovat odpovědi AI tak, aby umělá inteligence sloužila jejich účelům. Zneužít přitom mohou i jeho integraci s kancelářským balíkem Microsoft 365 a s pomocí Copilota vytvářet přesvědčivé phishingové e-maily, kterými efektivněji přesvědčí potencionální oběti k prozrazení citlivých informací.
Čtěte také: Velký návrat Trumpa na síť X se nekonal. Rozhovor s Muskem měl technické problémy
Aby lépe demonstroval hrozbu, kterou Microsoft Copilot představuje, vytvořil Bargury speciální nástroj LOLCopilot. Ten umožňuje etickým hackerům simulovat možné útoky a lépe tak pochopit potencionální hrozby, které zneužití Copilotu představuje. LOLCopilot přitom může běžet na jakémkoli zařízení, které umožňuje spolupráci umělé inteligence Copilot s platformou Microsoft 365.
Demonstrace na Black Hat odhalila, že výchozí nastavení zabezpečení Microsoft Copilot není dostatečné k tomu, aby zabránilo takovému zneužití. Schopnost nástroje přistupovat k velkému množství dat a zpracovávat je představuje značné riziko, zejména pokud nejsou oprávnění pečlivě spravována.
Toto odhalení tak podtrhuje naléhavou potřebu, aby organizace a firmy přehodnotily svá bezpečnostní opatření a začaly brát vážně možná rizika při používání AI technologií.
Jedním z největších technologických témat současnosti je umělá inteligence. Ze všech stran se na nás valí, jak pozitivně změní naše životy. Ne vše je tak pozitivní. Na nedávné konferenci Black Hat USA ukázal bezpečností výzkumník Michael Bargury alarmující zranitelnost Microsoft Copilot, která umožňuje útočníkům zneužít tento nástroj poháněný AI ke svým účelům. Napsal o tom server Cyber Security News.
Bargury ve své prezentaci ukázal několik metod, pomocí nichž mohou hackeři využít Microsoft Copilot k provádění kybernetických útoků. Jedním z klíčových odhalení je použití zásuvných modulů, které Copilot používá k rozšíření možností umělé inteligence k instalaci zadních vrátek do interakcí ostatních uživatelům.
To kyberzločincům usnadní krádeže citlivých dat a umožní jim tom efektivní využívání sociální inženýrství pomocí AI. Pomocí injekce promptů mohou hackeři zmanipulovat odpovědi AI tak, aby umělá inteligence sloužila jejich účelům. Zneužít přitom mohou i jeho integraci s kancelářským balíkem Microsoft 365 a s pomocí Copilota vytvářet přesvědčivé phishingové e-maily, kterými efektivněji přesvědčí potencionální oběti k prozrazení citlivých informací.
Čtěte také: Velký návrat Trumpa na síť X se nekonal. Rozhovor s Muskem měl technické problémy
Aby lépe demonstroval hrozbu, kterou Microsoft Copilot představuje, vytvořil Bargury speciální nástroj LOLCopilot. Ten umožňuje etickým hackerům simulovat možné útoky a lépe tak pochopit potencionální hrozby, které zneužití Copilotu představuje. LOLCopilot přitom může běžet na jakémkoli zařízení, které umožňuje spolupráci umělé inteligence Copilot s platformou Microsoft 365.
Demonstrace na Black Hat odhalila, že výchozí nastavení zabezpečení Microsoft Copilot není dostatečné k tomu, aby zabránilo takovému zneužití. Schopnost nástroje přistupovat k velkému množství dat a zpracovávat je představuje značné riziko, zejména pokud nejsou oprávnění pečlivě spravována.
Toto odhalení tak podtrhuje naléhavou potřebu, aby organizace a firmy přehodnotily svá bezpečnostní opatření a začaly brát vážně možná rizika při používání AI technologií.