Deepfake technologie představují rostoucí hrozbu pro firmy i jednotlivce. V roce 2023 vzrostl počet deepfake útoků v Evropě o 780 % (zdroj: Mediaguru) a v České republice o 660 % (zdroj: Seznam Zprávy).

Příklady deepfake útoků

  1. Napodobení hlasu nadřízeného: Útočníci mohou vytvořit falešnou hlasovou zprávu od vedoucího pracovníka a žádat zaměstnance o citlivé informace nebo peněžní převody.
  2. Falešné videokonference: Během online schůzek můžou útočníci pomocí deepfake technologie napodobit tvář a hlas známé osoby a získat důvěru nebo interní data.
  3. Podvodná firemní prohlášení: Falešná videa s vedením společnosti mohou poškodit její reputaci a ovlivnit tržní hodnotu.
  4. Vydírání zaměstnanců: Kompromitující deepfake materiály, například intimní fotografie, mohou sloužit k vydírání.

Konkrétní případy:

  1. Napodobení hlasu nadřízeného:
    1. V roce 2019 podvodníci napodobili hlas generálního ředitele britské energetické firmy a přiměli finančního ředitele k převodu 220 000 eur na falešný účet. (zdroj: The Guardian)
  2. Falešné videokonference:
    1. V roce 2021 ztratila čínská společnost přes 35 milionů dolarů, když byla obětí deepfake videa během online schůzky. (zdroj: The Verge)
  3. Podvodná firemní prohlášení:
    1. V roce 2020 se objevilo falešné video Elona Muska propagující podvodné kryptoměnové schéma. (zdroj: CNBC)
  4. Vydírání zaměstnanců:
    1. V roce 2021 byla indická novinářka obětí deepfake fotek a videí, které vedly k vydírání. (zdroj: BBC News)

Jak se chránit:

  1. Zvyšujte povědomí o hrozbách deepfake technologií.
  2. Školte zaměstnance v rozpoznávání podvodného obsahu.
  3. Implementujte nástroje na detekci a ověření pravosti mediálního obsahu.