S příchodem ChatGPT se navždy změnil internet a jeho vnímání umělé inteligence. Není tak divu, že se najednou každá větší firma snaží přijít se svojí alternativou. Zatímco AI má obrovský potenciál pomoct nám v mnoha ohledech, tak s sebou přináší i řadu rizik a problémů. To se projevuje hlavně v posledních týdnech, kdy podvodníci pomocí generování hlasu umělé inteligence například okrádají lidi o peníze.
Nejčastější podvody aktuálně využívají umělou inteligencí vygenerovaný hlas určitého člověka. Ze začátku byl software využíván především k porovnání umělého hlasu oproti dabérům a hercům. K tomu stačí nahrát jen pár vteřin dlouhou zvukovou stopu, o vše ostatní se postará AI. Podvodníci se tak můžou lehce vydávat za někoho vám blízkého, přičemž rozeznat opravdový hlas od umělého je čím dál těžší.
Dle informací deníku The Washington Post podobným podvodům naletěly tisíce obětí. V Americe se za minulý rok stal tento způsob podvodu druhým nejčastějším, kdy bylo nahlášeno přes 36 tisíc případů. Přibližně 5 tisíc případů z toho byl podvod prováděn pomocí telefonu, celkem došlo dle FTC ke ztrátám v hodnotě 11 milionů dolarů, což je přes 240 milionů korun.
Čtěte také: Umělá inteligence válcuje svět. Nově do rozjetého vlaku naskakuje Snapchat
Jeden z konkrétních příkladů pak postihl postarší pár, který přišel celkem o 21 tisíc dolarů, tedy asi 462 tisíc korun. Podvodník se vydával za jejich syna, který se měl údajně dostat do potíží kvůli tomu, že při srážce automobilů připravil o život amerického diplomata. Kvůli hlasu vytvořenému umělou inteligencí příběhu uvěřili a peníze podvodníkovi poslali skrze bitcoinový automat.
Podobné podvody se většinou zaměřují na starší lidi, kteří často o nových technologiích a jejich riziku neví. Nejen kvůli tomu tak patří mezi nejzranitelnější lidi, co se podvodů týče. Nabízí se tak otázka, kdo by měl za takové průšvihy převzít odpovědnost. Soudy zatím nerozhodly o tom, že by měly nějaké následky nést firmy, které za umělou inteligencí stojí, ovšem v budoucnu by se to mohlo hypoteticky stát.
S příchodem ChatGPT se navždy změnil internet a jeho vnímání umělé inteligence. Není tak divu, že se najednou každá větší firma snaží přijít se svojí alternativou. Zatímco AI má obrovský potenciál pomoct nám v mnoha ohledech, tak s sebou přináší i řadu rizik a problémů. To se projevuje hlavně v posledních týdnech, kdy podvodníci pomocí generování hlasu umělé inteligence například okrádají lidi o peníze.
Nejčastější podvody aktuálně využívají umělou inteligencí vygenerovaný hlas určitého člověka. Ze začátku byl software využíván především k porovnání umělého hlasu oproti dabérům a hercům. K tomu stačí nahrát jen pár vteřin dlouhou zvukovou stopu, o vše ostatní se postará AI. Podvodníci se tak můžou lehce vydávat za někoho vám blízkého, přičemž rozeznat opravdový hlas od umělého je čím dál těžší.
Dle informací deníku The Washington Post podobným podvodům naletěly tisíce obětí. V Americe se za minulý rok stal tento způsob podvodu druhým nejčastějším, kdy bylo nahlášeno přes 36 tisíc případů. Přibližně 5 tisíc případů z toho byl podvod prováděn pomocí telefonu, celkem došlo dle FTC ke ztrátám v hodnotě 11 milionů dolarů, což je přes 240 milionů korun.
Čtěte také: Umělá inteligence válcuje svět. Nově do rozjetého vlaku naskakuje Snapchat
Jeden z konkrétních příkladů pak postihl postarší pár, který přišel celkem o 21 tisíc dolarů, tedy asi 462 tisíc korun. Podvodník se vydával za jejich syna, který se měl údajně dostat do potíží kvůli tomu, že při srážce automobilů připravil o život amerického diplomata. Kvůli hlasu vytvořenému umělou inteligencí příběhu uvěřili a peníze podvodníkovi poslali skrze bitcoinový automat.
Podobné podvody se většinou zaměřují na starší lidi, kteří často o nových technologiích a jejich riziku neví. Nejen kvůli tomu tak patří mezi nejzranitelnější lidi, co se podvodů týče. Nabízí se tak otázka, kdo by měl za takové průšvihy převzít odpovědnost. Soudy zatím nerozhodly o tom, že by měly nějaké následky nést firmy, které za umělou inteligencí stojí, ovšem v budoucnu by se to mohlo hypoteticky stát.