AI podvody a deepfake
Publikováno: 17.2.2025
Deepfake technologie se stávají jednou z největších hrozeb moderního světa. Firmy i jednotlivci čelí rostoucímu riziku podvodů, které využívají umělou inteligenci (AI). Jak se chránit před falešnými videi, hlasovými zprávami a jinými typy deepfake útoků? Čtěte dále.
Deepfake technologie představují rostoucí hrozbu pro firmy i jednotlivce. V roce 2023 vzrostl počet deepfake útoků v Evropě o 780 % (zdroj: Mediaguru) a v České republice o 660 % (zdroj: Seznam Zprávy).
Příklady deepfake útoků
- Napodobení hlasu nadřízeného: Útočníci mohou vytvořit falešnou hlasovou zprávu od vedoucího pracovníka a žádat zaměstnance o citlivé informace nebo peněžní převody.
- Falešné videokonference: Během online schůzek můžou útočníci pomocí deepfake technologie napodobit tvář a hlas známé osoby a získat důvěru nebo interní data.
- Podvodná firemní prohlášení: Falešná videa s vedením společnosti mohou poškodit její reputaci a ovlivnit tržní hodnotu.
- Vydírání zaměstnanců: Kompromitující deepfake materiály, například intimní fotografie, mohou sloužit k vydírání.
Konkrétní případy:
- Napodobení hlasu nadřízeného:
- V roce 2019 podvodníci napodobili hlas generálního ředitele britské energetické firmy a přiměli finančního ředitele k převodu 220 000 eur na falešný účet. (zdroj: The Guardian)
- Falešné videokonference:
- V roce 2021 ztratila čínská společnost přes 35 milionů dolarů, když byla obětí deepfake videa během online schůzky. (zdroj: The Verge)
- Podvodná firemní prohlášení:
- V roce 2020 se objevilo falešné video Elona Muska propagující podvodné kryptoměnové schéma. (zdroj: CNBC)
- Vydírání zaměstnanců:
- V roce 2021 byla indická novinářka obětí deepfake fotek a videí, které vedly k vydírání. (zdroj: BBC News)
Jak se chránit:
- Zvyšujte povědomí o hrozbách deepfake technologií.
- Školte zaměstnance v rozpoznávání podvodného obsahu.
- Implementujte nástroje na detekci a ověření pravosti mediálního obsahu.