de en
Nexia Ebner Stolz

Wirtschaftsprüfung

Die dunkle Seite der Technologie: Deepfakes - CEO-Fraud 2.0

Social Engineering ist weiterhin eine gängige Methode, um an sensible Geschäftsgeheimnisse oder Geld zu kommen. Dies stellt gleichzeitig eine hohe Gefahr für die IT-Sicherheit dar. Was aber, wenn sich auch diese Branche auf Basis neuerer Technologien weiterentwickelt?

Deep­fa­kes – abge­lei­tet von den Begrif­fen Deep Lear­ning und Fake – sind simple aber bös­ar­tige Mit­tel der Mani­pu­la­tion von Bild-, Video oder Audio­da­teien, bei der bio­me­tri­sche Merk­male wie bspw. Aus­se­hen oder Stimme von CEOs täu­schend echt imi­tiert wer­den, sozu­sa­gen CEO-Fraud 2.0. Die Fol­gen eines erfolg­reich durch­ge­führ­ten Deep­fake kön­nen für Unter­neh­men sowohl aus Daten­schutz­grün­den als auch aus finan­zi­el­ler Sicht ver­hee­rend sein.

Die dunkle Seite der Technologie: Deepfakes - CEO-Fraud 2.0© Thinkstock

Was sind Deep­fa­kes?

Grund­sätz­lich ver­steht man unter Deep­fa­kes ein mit Hilfe künst­li­cher Intel­li­genz her­ge­s­tell­tes Bild, Video oder eine Sprach­si­mu­la­tion. Dies wirkt augen­schein­lich authen­tisch, ist es aber nicht. Der Unter­schied zwi­schen einem ori­gi­na­len Video und der mani­pu­lier­ten Sequ­enz ist kaum zu erken­nen.

Auch die unsach­ge­rechte Ver­wen­dung einer auf­ge­nom­me­nen Sprach­se­qu­enz kann schon zu Mani­pu­la­tio­nen mit­tels Deep­fake füh­ren:

Der erste, öff­ent­lich gewor­dene Betrugs­fall ereig­nete sich bei einer bri­ti­schen Gesell­schaft, bei der der Geschäfts­füh­rer durch einen sol­chen Deep­fake mani­pu­liert wurde. Der angeb­li­che Anruf des CEOs der deut­schen Mut­ter­ge­sell­schaft, wel­cher eine Trans­ak­tion über 220.000 Euro auf ein durch ihn ange­ge­be­nes Konto beauf­tragte, stellte sich schluss­end­lich als Fäl­schung mit erheb­li­chem Scha­den dar. Betrü­ger haben mit einer Deep­fake-Soft­ware die Stimme des CEO nach­ge­ahmt. Man spricht in die­sem Zusam­men­hang von einem „C-Level-Fraud“, einer Wei­ter­ent­wick­lung des klas­si­sches E-Mail-Phis­hings.

Sol­che Deep­fake-Soft­ware arbei­tet im Hin­ter­grund mit künst­li­cher Intel­li­genz und ers­tel­len mit Hilfe von Machine Lear­ning, genauer gesagt mit Deep-Lear­ning-Algo­rith­men, die oben beschrie­be­nen Fäl­schun­gen. Wer­den Videos mani­pu­liert, wird die gefälschte Sequ­enz in Ein­zel­bil­der auf­ge­s­p­lit­tet und das zu fäl­schende Objekt ana­ly­siert. Bei die­ser Ana­lyse wer­den die ges­p­lit­te­ten Ein­zel­bil­der der Quelle und die des Ziels per Gesicht­s­er­ken­nung abge­g­li­chen. Die­ser Pro­zess ist das sog. Trai­ning. Am Ende wird dann das neue Ziel­ob­jekt über das ursprüng­li­che Ori­gi­nal geb­len­det und im Film ersetzt.

Wel­che Bedro­hun­gen kön­nen sich für Unter­neh­men erge­ben?

Die Com­pu­ter­soft­ware zum Nach­ah­men von Gesichts­zü­gen und Sprech­wei­sen hat sich so sch­nell wei­ter­ent­wi­ckelt, dass die Pro­duk­tion von Deep­fa­kes keine anspruchs­volle Auf­gabe mehr ist, aber eine zuneh­mend ernst­zu­neh­mende Gefahr dar­s­tellt - und zwar sowohl für Poli­tik als auch für die Wirt­schaft. Beson­ders hohe Gefah­ren ver­ber­gen sich für Unter­neh­men in den Berei­chen Daten­schutz, Finan­zen und Per­so­nal. Die Ziel­set­zung eines Deep­fa­kes kann die finan­zi­elle Vor­teils­nahme, Ver­let­zung von Per­sön­lich­keits­rech­ten, Anschul­di­gun­gen oder gefälschte Aus­ein­an­der­set­zun­gen sein. Selbst im pri­va­ten Umfeld könnte Deep­fa­kes in spe­zi­el­ler Form des Enkel­tricks Anwen­dung fin­den.

Neben den Gefah­ren des Geld­ab­flus­ses durch Betrug oder Erpres­sung (z. B. Andro­hung von Plei­te­mel­dun­gen), droht den Unter­neh­men durch Deep­fa­kes bspw. die Mani­pu­la­tion von Vor­stel­lungs­ge­sprächen, die mitt­ler­weile häu­fig über Video­te­le­fo­nie oder Tele­fon­in­ter­views statt­fin­den, sowie Daten­pan­nen und Ima­ge­ver­lust. Wei­ter­hin wird die The­ma­tik „Fake News“ durch Mani­pu­la­tio­nen per Deep­fa­kes immer kri­ti­scher und kann Ein­fluss auf Unter­neh­mens­ent­schei­dun­gen neh­men.

Die Unter­schei­dung zwi­schen Ori­gi­nal und Fäl­schung wird immer mühe­vol­ler. In vie­len Fäl­len wird dies nur noch Exper­ten gelin­gen. Zu beach­ten ist, dass die Schwach­s­telle hier­bei der Mensch selbst bleibt. Es muss ein Maß an Sicher­heits­be­wusst­sein beste­hen, um eine Bedro­hung durch Deep­fa­kes zu ent­tar­nen.

Die inno­va­tive Infor­ma­ti­ons­tech­nik hin­ter Deep­fa­kes bie­tet eine Menge Poten­tial für viele Wirt­schafts­zweige, aber lei­der auch für viele Kri­mi­nelle. Die Tech­nik muss durch­aus kri­tisch betrach­tet wer­den und stellt die Sicher­heits­ex­per­ten vor große Her­aus­for­de­run­gen. Noch bis vor ein paar Jah­ren war diese Art von Mani­pu­la­tion nur Soft­wa­re­ent­wick­lern und Video-Exper­ten mög­lich. Heute kön­nen Bil­der, Videos oder Ton­se­qu­en­zen ganz ein­fach mit Hilfe von Desk­top-Apps wie bspw. „Fake App“ ers­tellt wer­den.

Mög­lich­kei­ten zur Präv­en­tion

Im Som­mer 2018 hat ein US-For­scher eine bis dato revo­lu­tio­näre Methode ver­öf­f­ent­licht, Deep­fa­kes im Vor­hin­ein zu erken­nen. Es han­delt sich um eine Anti-Deep­fake-KI, wel­che anhand der Lid­schläge erken­nen kann, ob es sich um eine Vide­o­fäl­schung oder ein Ori­gi­nal han­delt.

Aller­dings müs­sen sich die Metho­den zur Erken­nung von Deep­fa­kes mit der Wei­ter­ent­wick­lung der Deep­fake-Tech­ni­ken stän­dig ver­bes­sern. Es ist davon aus­zu­ge­hen, dass die Foren­sik-Werk­zeuge heut­zu­tage nur noch wenige Monate aktu­ell sind, wohin­ge­gen sie früher über Jahre aktu­ell waren. Durch die gezielte Wei­ter­ent­wick­lung von künst­li­cher Intel­li­genz wer­den Deep­fa­kes zu immer natür­li­che­ren und authen­ti­sche­ren Ergeb­nis­sen füh­ren, wor­aus für Unter­neh­men, natür­li­che Per­so­nen und Poli­tik immer grö­ßere Gefah­ren dro­hen.

Daher ist ins­be­son­dere das Sicher­heits­be­wusst­sein (Secu­rity-Awa­re­ness) auch in die­sem Zusam­men­hang ein sehr wich­ti­ges Mit­tel, um die­ser Gefahr zu begeg­nen. Es gilt im Unter­neh­men ein Bewusst­sein zu schaf­fen und dar­zu­le­gen, wel­che Präv­en­ti­ons­mög­lich­kei­ten es gibt. Dies gilt ins­be­son­dere auch für Deep­fa­kes, da diese noch nicht die mediale Prä­senz haben wie andere Metho­den.

nach oben