Microsoft v maléru. Populární služba se stala doslova rájem hackerů

  • Platforma Microsoft Copilot obsahuje závažné bezpečnostní slabiny
  • Hackeři mohou zneužít tento nástroj ke škodlivým účelům
  • Usnadňuje krádeže dat i phishingové útoky
Microsoft Copilot

Microsoft Copilot

Jedním z největších technologických témat současnosti je umělá inteligence. Ze všech stran se na nás valí, jak pozitivně změní naše životy. Ne vše je tak pozitivní. Na nedávné konferenci Black Hat USA ukázal bezpečností výzkumník Michael Bargury alarmující zranitelnost Microsoft Copilot, která umožňuje útočníkům zneužít tento nástroj poháněný AI ke svým účelům. Napsal o tom server Cyber Security News.

Microsoft Copilot usnadňuje hackerům práci

Bargury ve své prezentaci ukázal několik metod, pomocí nichž mohou hackeři využít Microsoft Copilot k provádění kybernetických útoků. Jedním z klíčových odhalení je použití zásuvných modulů, které Copilot používá k rozšíření možností umělé inteligence k instalaci zadních vrátek do interakcí ostatních uživatelům.

To kyberzločincům usnadní krádeže citlivých dat a umožní jim tom efektivní využívání sociální inženýrství pomocí AI. Pomocí injekce promptů mohou hackeři zmanipulovat odpovědi AI tak, aby umělá inteligence sloužila jejich účelům. Zneužít přitom mohou i jeho integraci s kancelářským balíkem Microsoft 365 a s pomocí Copilota vytvářet přesvědčivé phishingové e-maily, kterými efektivněji přesvědčí potencionální oběti k prozrazení citlivých informací.

Hacker

Hackeři se naučili využívat umělou inteligenci, ilustrační | foto: Pixabay


Čtěte také: Velký návrat Trumpa na síť X se nekonal. Rozhovor s Muskem měl technické problémy


LOLCopilot ukazuje rizika

Aby lépe demonstroval hrozbu, kterou Microsoft Copilot představuje, vytvořil Bargury speciální nástroj LOLCopilot. Ten umožňuje etickým hackerům simulovat možné útoky a lépe tak pochopit potencionální hrozby, které zneužití Copilotu představuje. LOLCopilot přitom může běžet na jakémkoli zařízení, které umožňuje spolupráci umělé inteligence Copilot s platformou Microsoft 365.

Nastavení zabezpečení není dostatečné

Demonstrace na Black Hat odhalila, že výchozí nastavení zabezpečení Microsoft Copilot není dostatečné k tomu, aby zabránilo takovému zneužití. Schopnost nástroje přistupovat k velkému množství dat a zpracovávat je představuje značné riziko, zejména pokud nejsou oprávnění pečlivě spravována.

Toto odhalení tak podtrhuje naléhavou potřebu, aby organizace a firmy přehodnotily svá bezpečnostní opatření a začaly brát vážně možná rizika při používání AI technologií.

Nepřehlédněte

Diskuze

"Komentáře se nahrávají..."

Microsoft v maléru. Populární služba se stala doslova rájem hackerů

  • Platforma Microsoft Copilot obsahuje závažné bezpečnostní slabiny
  • Hackeři mohou zneužít tento nástroj ke škodlivým účelům
  • Usnadňuje krádeže dat i phishingové útoky
Microsoft Copilot

Microsoft Copilot

Jedním z největších technologických témat současnosti je umělá inteligence. Ze všech stran se na nás valí, jak pozitivně změní naše životy. Ne vše je tak pozitivní. Na nedávné konferenci Black Hat USA ukázal bezpečností výzkumník Michael Bargury alarmující zranitelnost Microsoft Copilot, která umožňuje útočníkům zneužít tento nástroj poháněný AI ke svým účelům. Napsal o tom server Cyber Security News.

Microsoft Copilot usnadňuje hackerům práci

Bargury ve své prezentaci ukázal několik metod, pomocí nichž mohou hackeři využít Microsoft Copilot k provádění kybernetických útoků. Jedním z klíčových odhalení je použití zásuvných modulů, které Copilot používá k rozšíření možností umělé inteligence k instalaci zadních vrátek do interakcí ostatních uživatelům.

To kyberzločincům usnadní krádeže citlivých dat a umožní jim tom efektivní využívání sociální inženýrství pomocí AI. Pomocí injekce promptů mohou hackeři zmanipulovat odpovědi AI tak, aby umělá inteligence sloužila jejich účelům. Zneužít přitom mohou i jeho integraci s kancelářským balíkem Microsoft 365 a s pomocí Copilota vytvářet přesvědčivé phishingové e-maily, kterými efektivněji přesvědčí potencionální oběti k prozrazení citlivých informací.

Hacker

Hackeři se naučili využívat umělou inteligenci, ilustrační | foto: Pixabay


Čtěte také: Velký návrat Trumpa na síť X se nekonal. Rozhovor s Muskem měl technické problémy


LOLCopilot ukazuje rizika

Aby lépe demonstroval hrozbu, kterou Microsoft Copilot představuje, vytvořil Bargury speciální nástroj LOLCopilot. Ten umožňuje etickým hackerům simulovat možné útoky a lépe tak pochopit potencionální hrozby, které zneužití Copilotu představuje. LOLCopilot přitom může běžet na jakémkoli zařízení, které umožňuje spolupráci umělé inteligence Copilot s platformou Microsoft 365.

Nastavení zabezpečení není dostatečné

Demonstrace na Black Hat odhalila, že výchozí nastavení zabezpečení Microsoft Copilot není dostatečné k tomu, aby zabránilo takovému zneužití. Schopnost nástroje přistupovat k velkému množství dat a zpracovávat je představuje značné riziko, zejména pokud nejsou oprávnění pečlivě spravována.

Toto odhalení tak podtrhuje naléhavou potřebu, aby organizace a firmy přehodnotily svá bezpečnostní opatření a začaly brát vážně možná rizika při používání AI technologií.

Nepřehlédněte

Diskuze

"Komentáře se nahrávají..."