de en
Nexia Ebner Stolz

Wirtschaftsprüfung

Die dunkle Seite der Technologie: Deepfakes - CEO-Fraud 2.0

So­cial En­gi­nee­ring ist wei­ter­hin eine gängige Me­thode, um an sen­si­ble Ge­schäfts­ge­heim­nisse oder Geld zu kom­men. Dies stellt gleich­zei­tig eine hohe Ge­fahr für die IT-Si­cher­heit dar. Was aber, wenn sich auch diese Bran­che auf Ba­sis neu­erer Tech­no­lo­gien wei­ter­ent­wi­ckelt?

De­epfa­kes – ab­ge­lei­tet von den Be­grif­fen Deep Learning und Fake – sind sim­ple aber bösar­tige Mit­tel der Ma­ni­pu­la­tion von Bild-, Vi­deo oder Au­di­oda­teien, bei der bio­me­tri­sche Merk­male wie bspw. Aus­se­hen oder Stimme von CEOs täuschend echt imi­tiert wer­den, so­zu­sa­gen CEO-Fraud 2.0. Die Fol­gen ei­nes er­folg­reich durch­geführ­ten De­epfake können für Un­ter­neh­men so­wohl aus Da­ten­schutzgründen als auch aus fi­nan­zi­el­ler Sicht ver­hee­rend sein.

Die dunkle Seite der Technologie: Deepfakes - CEO-Fraud 2.0© Thinkstock

Was sind Deepfakes?

Grundsätz­lich ver­steht man un­ter De­epfa­kes ein mit Hilfe künst­li­cher In­tel­li­genz her­ge­stell­tes Bild, Vi­deo oder eine Sprach­si­mu­la­tion. Dies wirkt au­gen­schein­lich au­then­ti­sch, ist es aber nicht. Der Un­ter­schied zwi­schen einem ori­gi­na­len Vi­deo und der ma­ni­pu­lier­ten Se­quenz ist kaum zu er­ken­nen.

Auch die un­sach­ge­rechte Ver­wen­dung ei­ner auf­ge­nom­me­nen Sprach­se­quenz kann schon zu Ma­ni­pu­la­tio­nen mit­tels De­epfake führen:

Der er­ste, öff­ent­lich ge­wor­dene Be­trugs­fall er­eig­nete sich bei ei­ner bri­ti­schen Ge­sell­schaft, bei der der Ge­schäftsführer durch einen sol­chen De­epfake ma­ni­pu­liert wurde. Der an­geb­li­che An­ruf des CEOs der deut­schen Mut­ter­ge­sell­schaft, wel­cher eine Trans­ak­tion über 220.000 Euro auf ein durch ihn an­ge­ge­be­nes Konto be­auf­tragte, stellte sich schluss­end­lich als Fälschung mit er­heb­li­chem Scha­den dar. Betrüger ha­ben mit ei­ner De­epfake-Soft­ware die Stimme des CEO nach­ge­ahmt. Man spricht in die­sem Zu­sam­men­hang von einem „C-Le­vel-Fraud“, ei­ner Wei­ter­ent­wick­lung des klas­si­sches E-Mail-Phis­hings.

Sol­che De­epfake-Soft­ware ar­bei­tet im Hin­ter­grund mit künst­li­cher In­tel­li­genz und er­stel­len mit Hilfe von Ma­chine Learning, ge­nauer ge­sagt mit Deep-Learning-Al­go­rith­men, die oben be­schrie­be­nen Fälschun­gen. Wer­den Vi­deos ma­ni­pu­liert, wird die gefälschte Se­quenz in Ein­zel­bil­der auf­ge­split­tet und das zu fälschende Ob­jekt ana­ly­siert. Bei die­ser Ana­lyse wer­den die ge­split­te­ten Ein­zel­bil­der der Quelle und die des Ziels per Ge­sichts­er­ken­nung ab­ge­gli­chen. Die­ser Pro­zess ist das sog. Trai­ning. Am Ende wird dann das neue Ziel­ob­jekt über das ur­sprüng­li­che Ori­gi­nal ge­blen­det und im Film er­setzt.

Welche Bedrohungen können sich für Unternehmen ergeben?

Die Com­pu­ter­soft­ware zum Nach­ah­men von Ge­sichtszügen und Sprech­wei­sen hat sich so schnell wei­ter­ent­wi­ckelt, dass die Pro­duk­tion von De­epfa­kes keine an­spruchs­volle Auf­gabe mehr ist, aber eine zu­neh­mend ernst­zu­neh­mende Ge­fahr dar­stellt - und zwar so­wohl für Po­li­tik als auch für die Wirt­schaft. Be­son­ders hohe Ge­fah­ren ver­ber­gen sich für Un­ter­neh­men in den Be­rei­chen Da­ten­schutz, Fi­nan­zen und Per­so­nal. Die Ziel­set­zung ei­nes De­epfa­kes kann die fi­nan­zi­elle Vor­teils­nahme, Ver­let­zung von Persönlich­keits­rech­ten, An­schul­di­gun­gen oder gefälschte Aus­ein­an­der­set­zun­gen sein. Selbst im pri­va­ten Um­feld könnte De­epfa­kes in spe­zi­el­ler Form des En­kel­tricks An­wen­dung fin­den.

Ne­ben den Ge­fah­ren des Geld­ab­flus­ses durch Be­trug oder Er­pres­sung (z. B. An­dro­hung von Plei­te­mel­dun­gen), droht den Un­ter­neh­men durch De­epfa­kes bspw. die Ma­ni­pu­la­tion von Vor­stel­lungs­ge­sprächen, die mitt­ler­weile häufig über Vi­deo­te­le­fo­nie oder Te­le­fo­nin­ter­views statt­fin­den, so­wie Da­ten­pan­nen und Image­ver­lust. Wei­ter­hin wird die The­ma­tik „Fake News“ durch Ma­ni­pu­la­tio­nen per De­epfa­kes im­mer kri­ti­scher und kann Ein­fluss auf Un­ter­neh­mens­ent­schei­dun­gen neh­men.

Die Un­ter­schei­dung zwi­schen Ori­gi­nal und Fälschung wird im­mer mühevol­ler. In vie­len Fällen wird dies nur noch Ex­per­ten ge­lin­gen. Zu be­ach­ten ist, dass die Schwach­stelle hier­bei der Men­sch selbst bleibt. Es muss ein Maß an Si­cher­heits­be­wusst­sein be­ste­hen, um eine Be­dro­hung durch De­epfa­kes zu ent­tar­nen.

Die in­no­va­tive In­for­ma­ti­ons­tech­nik hin­ter De­epfa­kes bie­tet eine Menge Po­ten­tial für viele Wirt­schafts­zweige, aber lei­der auch für viele Kri­mi­nelle. Die Tech­nik muss durch­aus kri­ti­sch be­trach­tet wer­den und stellt die Si­cher­heits­ex­per­ten vor große Her­aus­for­de­run­gen. Noch bis vor ein paar Jah­ren war diese Art von Ma­ni­pu­la­tion nur Soft­ware­ent­wick­lern und Vi­deo-Ex­per­ten möglich. Heute können Bil­der, Vi­deos oder Ton­se­quen­zen ganz ein­fach mit Hilfe von Desk­top-Apps wie bspw. „Fake App“ er­stellt wer­den.

Möglichkeiten zur Prävention

Im Som­mer 2018 hat ein US-For­scher eine bis dato re­vo­lu­tionäre Me­thode veröff­ent­licht, De­epfa­kes im Vor­hin­ein zu er­ken­nen. Es han­delt sich um eine Anti-De­epfake-KI, wel­che an­hand der Lid­schläge er­ken­nen kann, ob es sich um eine Vi­deofälschung oder ein Ori­gi­nal han­delt.

Al­ler­dings müssen sich die Me­tho­den zur Er­ken­nung von De­epfa­kes mit der Wei­ter­ent­wick­lung der De­epfake-Tech­ni­ken ständig ver­bes­sern. Es ist da­von aus­zu­ge­hen, dass die Fo­ren­sik-Werk­zeuge heut­zu­tage nur noch we­nige Mo­nate ak­tu­ell sind, wo­hin­ge­gen sie früher über Jahre ak­tu­ell wa­ren. Durch die ge­zielte Wei­ter­ent­wick­lung von künst­li­cher In­tel­li­genz wer­den De­epfa­kes zu im­mer natürli­che­ren und au­then­ti­sche­ren Er­geb­nis­sen führen, wor­aus für Un­ter­neh­men, natürli­che Per­so­nen und Po­li­tik im­mer größere Ge­fah­ren dro­hen.

Da­her ist ins­be­son­dere das Si­cher­heits­be­wusst­sein (Se­cu­rity-Awa­ren­ess) auch in die­sem Zu­sam­men­hang ein sehr wich­ti­ges Mit­tel, um die­ser Ge­fahr zu be­geg­nen. Es gilt im Un­ter­neh­men ein Be­wusst­sein zu schaf­fen und dar­zu­le­gen, wel­che Präven­ti­onsmöglich­kei­ten es gibt. Dies gilt ins­be­son­dere auch für De­epfa­kes, da diese noch nicht die me­diale Präsenz ha­ben wie an­dere Me­tho­den.

nach oben