Volala mi dcera, zněla vyděšeně. Dejte si pozor na nový podvod s umělou inteligencí

Umělá inteligence dokáže napodobit váš hlas z pár sekund záznamu. Podvodníci to zneužívají k nebezpečným telefonátům i vydírání. Jak to vypadá v praxi?
Podvodníci mluví hlasem vašich příbuzných
Hlas, který slyšíte v telefonu, zní naprosto autenticky. Říká vám, že je vaše dcera, že potřebuje rychle peníze, že nemůže mluvit dlouho. Co uděláte? Pokud bez ověření zareagujete, přesně jste splnili plán novodobého podvodníka. Ten totiž hlas, který slyšíte, nenahrál – ale vygeneroval pomocí umělé inteligence.
Hlasové deepfaky, tedy falešné hlasy vytvořené na základě skutečného člověka, dnes zvládne vygenerovat každý s přístupem k volně dostupným nástrojům. Stačí 20 až 30 sekund nahrávky – například z videa na TikToku, z hlasovky v chatu nebo z rozhovoru na YouTube. AI si daný hlas analyzuje a vytvoří jeho přesný digitální klon. Ten pak může přečíst jakýkoli text s realistickou intonací, emocemi a výslovností.
Podvodníci tento nástroj začínají využívat k tzv. „voice scamům“. Volají obětem, často starším lidem, a předstírají, že jsou jejich děti nebo vnoučata. Scénář bývá podobný – stala se nehoda, někdo jim vyhrožuje, mají problém a potřebují peníze. Panika, věrohodný hlas a naléhavost udělají své. A přestože jde o výmysl, oběť často podlehne.

Klonování hlasu je skoro zadarmo
Znepokojující je, že hlasová syntéza už není jen experiment. Některé firmy nabízejí klonování hlasu za pár dolarů měsíčně. A kvalita výstupu? Často nerozeznatelná od originálu. Přitom donedávna platilo, že hlas je něco osobního a nezfalšovatelného. To už dnes neplatí.
Jak se tedy bránit?
Obrana existuje, ale vyžaduje chladnou hlavu. Nikdy neposkytujte údaje nebo peníze na základě jednoho telefonátu. Ověřujte – napište dotyčné osobě přes jinou aplikaci, zavolejte zpět na známé číslo. A mluvte o tomto nebezpečí i se svými rodiči nebo prarodiči – právě ti bývají nejčastějšími cíli.
Je také dobré se zamyslet, kolik vlastních nahrávek hlasu máte veřejně dostupných. Čím víc jich je, tím snáze se dají zneužít. V éře umělé inteligence platí nové pravidlo: to, co slyšíte, nemusí být pravda – ani když je to váš hlas, nebo hlas někoho, koho milujete.
Zaznamenali jste už podobný podvod ve svém okolí? Dostali jste podezřelý hovor, zprávu nebo žádost, která zněla příliš autenticky na to, aby byla náhoda? Nebo máte vlastní tip, jak se bránit?
Napište nám do komentářů, co si o fenoménu hlasových deepfake podvodů myslíte. Sdílejte své zkušenosti, varujte ostatní nebo se zeptejte na to, co vás zajímá. Vaše příběhy mohou pomoci dalším čtenářům zůstat v bezpečí.
Zdroj: vlastní zpracování / redakce Mobilizujeme.cz
Autor článku

Martin fandí technologiím napříč obory – od mobilních zařízení až po chytrá auta. Sleduje inovace, které mají smysl a zlepšují každodenní život. V článcích kombinuje nadhled, technický přehled a lehkou dávku humoru.
Martin fandí technologiím napříč obory – od mobilních zařízení až po chytrá auta. Sleduje inovace, které mají smysl a zlepšují každodenní život. V článcích kombinuje nadhled, technický přehled a lehkou dávku humoru.