Rodinné heslo – jednoduchý způsob, jak se chránit před novými triky podvodníků
Zneužití nových technologií se stává stále častějším problémem. V Česku je zatím nejčastější případ, že podvodník předstírá, že je někým z rodiny, kdo ztratil mobil a snaží se vylákat peníze. Pomoc může být snadná – rodinné heslo.
🚩 Proč je to důležité: V zahraničí se objevuje i napodobení hlasu. S rozšířením generativní umělé inteligence podvodníci mohou přesvědčivě napodobit hlasy blízkých.
➡️ Co se děje: V letošním roce do světa kyberkriminality vtrhla jedna novinka, která se ukázala jako mimořádně úspěšná. Jde o podvody přes komunikační platformu WhatsApp s využitím lži o příbuzném v nesnázích.
Ve statistikách banky se rychle prodral tento typ podvodu na přední příčky. Z ukradených peněz jich 11 procent vysál z účtů klientů právě tento trik. (Více o podvodech zde.)
Podvod obvykle probíhá tak, že se přes WhatsApp na potenciální oběť obrátí někdo, kdo se vydává za člena rodiny s žádostí o finanční pomoc. Typická zpráva může znít: „Ahoj, ztratil jsem mobil, potřebuji pomoct, pošli mi rychle peníze na tento účet.“
Podvodníci jsou navíc dnes už schopni telefonicky napodobovat hlasy rodinných příslušníků díky AI s cílem získání peněz. Například Wall Street Journal popisuje případ Američanky, která byla přesvědčena, že její dcera potřebuje pomoc, a přišla o 2000 dolarů.
💡 Hack na e-šmejdy: Účinnou, a přitom jednoduchou ochranou je přitom rodinné heslo. Experti doporučují zvolit slovo, které je originální a nelze je zjistit z veřejných zdrojů, a sdělovat jej pouze nejužší rodině osobně nebo telefonicky. Pokud volající nezná dohodnuté heslo, měl by příjemce hovoru ihned komunikaci ukončit.
Heslo by mělo být snadno zapamatovatelné, je možné si domluvit i záložní ověřovací otázku. Není nutné ho měnit, pokud nedojde k narušení důvěry v rodině.
🔎 Kontext: Útoky formou napodobení hlasu nejsou nové, ale díky výraznému pokroku v AI mohou být telefonáty stále obtížněji rozeznatelné od skutečných rodinných hovorů.
Technologie deepfake a generativní AI umožňují reprodukovat hlas s vysokou přesností, což podvodníkům usnadňuje manipulaci obětí.
👀 Co dál sledovat: Do budoucna lze očekávat, že zneužívání hlasových deepfake technologií poroste a s tím i důležitost vzdělávání veřejnosti v oblasti ochrany osobních dat. Rodiny a instituce budou zřejmě stále více zavádět interní ověřovací postupy, včetně pravidelné aktualizace nebo testování bezpečnostních kódů a otázek.