deen

Unternehmen

Sven Giesselbach vom Fraunhofer Institut erläutert die Entwicklungen im Bereich von KI und wie Unternehmen diese für sich nutzen können.

Künstliche Intelligenz: wie lange dauert es noch bis zur digitalen Revolution?

Seit zwi­schen­zeit­lich einem Jahr macht Chat GPT von sich re­den und das Thema künst­li­che In­tel­li­genz ist in der Breite der Bevölke­rung an­ge­kom­men. Wer Chat GPT schon ein­mal be­nutzt hat, staunt über die er­ziel­ten Er­geb­nisse. Ein Ar­beits­zeug­nis, eine Ge­burts­tags­rede oder Erst­in­for­ma­tio­nen zu dem einen oder an­de­ren Thema - der Out­put ist be­acht­lich. Geht es in die Tiefe, zei­gen sich aber durch­aus noch in­halt­li­che Schwächen, wie der Ei­gen­ver­such zu steu­er­recht­li­chen The­men er­ge­ben hat. Jen­seits des Out­puts von Chat GPT wer­den auch zwei­felnde Stim­men laut, die etwa Verstöße ge­gen das Ur­he­ber- oder Da­ten­schutz­recht gel­tend ma­chen.

© Fraunhofer Institut

Chat GPT ist nur die Spitze der Fah­nen­stange. Wir spre­chen mit Sven Gies­sel­bach, Team Lead Na­tu­ral Lan­guage Un­der­stan­ding beim Fraun­ho­fer IAIS in Sankt Au­gus­tin, darüber, wo uns die Reise in Sa­chen Künst­li­che In­tel­li­genz hinführen wird, was jetzt schon möglich ist und wie ins­be­son­dere Un­ter­neh­men Künst­li­che In­tel­li­genz für sich nut­zen können.

Bill Gates soll ge­sagt ha­ben, dass Chat GPT und der Ein­satz künst­li­cher In­tel­li­genz un­sere Welt verändern wird. Herr Gies­sel­bach, wie kon­kret macht sich das heute schon be­merk­bar?

Zunächst zu der Präsenz in den Me­dien: Das Thema KI hat das letzte Jahr völlig do­mi­niert. Auch Per­so­nen, die bis­her nicht di­rekt da­mit in Berührung ge­kom­men sind, ken­nen nun Chat GPT oder ha­ben es so­gar schon be­nutzt. In mei­nem Um­feld sehe ich auch eine Viel­zahl von Per­so­nen aus an­de­ren Bran­chen, die Chat GPT re­gelmäßig pri­vat oder be­ruf­lich nut­zen. Durch die Steue­rung über natürli­che Sprache und das un­glaub­lich gute Sprach­verständ­nis bie­tet Chat GPT eine sehr nied­rige Ein­stiegshürde. Ich muss mir z. B. nicht mehr ge­nau über­le­gen, wel­che Stich­worte in ei­ner Such­ma­schine zum rich­ti­gen Er­geb­nis führen, son­dern lasse Chat GPT meine Aus­sage in­ter­pre­tie­ren und es dann z. B. ei­genständig eine An­frage an Such­ma­schi­nen for­mu­lie­ren.

Als Nächs­tes se­hen wir ein star­kes In­ter­esse an As­sis­tenz­sys­te­men, die auf großen Sprach­mo­del­len ba­sie­ren, oder wie Mi­cro­soft sie nennt, die sog. Co-Pi­lots. Das au­to­ma­ti­sierte Ge­ne­rie­ren von Do­ku­men­ten, Bil­dern, Präsen­ta­tio­nen oder so­gar Pro­gramm­codes stei­gert nach­weis­lich die Pro­duk­ti­vität von Ar­beitskräften. Zwar ist die Qua­lität oft noch nicht so gut, dass die Er­geb­nisse ohne Über­ar­bei­tung oder Kor­rek­tu­ren ver­wen­den können, aber das Er­stel­len ei­nes ers­ten Ent­wurfs geht deut­lich schnel­ler.

Kon­kret se­hen wir auch ein enor­mes In­ter­esse in der In­dus­trie, Künst­li­che In­tel­li­genz zur Au­to­ma­ti­sie­rung ei­ge­ner Pro­zesse und Work­flows ein­zu­set­zen. Durch die Viel­sei­tig­keit von Foun­da­tion Mo­dels er­ge­ben sich An­wen­dungsmöglich­kei­ten in den un­ter­schied­lichs­ten Un­ter­neh­mens­ab­tei­lun­gen und -Bran­chen.

Wenn wir von Künst­li­cher In­tel­li­genz re­den, spre­chen wir ge­nauer ge­sagt über sog. Foun­da­tion Mo­dels, also durch ma­schi­nel­les Ler­nen für eine be­stimmte An­wen­dung trai­nierte Com­pu­ter­mo­delle. Wie ist de­ren grund­le­gende Funk­ti­ons­weise?

Das span­nende an Foun­da­tion Mo­dels ist, dass sie nicht für eine be­stimmte An­wen­dung trai­niert wer­den, son­dern im ers­ten Schritt möglichst ge­ne­rell und da­nach sehr ad­ap­tier­bar auf spe­zi­elle An­wen­dun­gen sind. Die Viel­sei­tig­keit der Foun­da­tion Mo­dels zeigt sich zum einen darin, dass sie in vie­len Fällen mehr als eine Art von Da­ten ver­ar­bei­ten können, z.B. Text und Bil­der, das nen­nen wir Mul­ti­moda­lität, zum an­de­ren, dass sie auf ver­schie­dene Auf­ga­ben ad­ap­tiert wer­den können. Dies ge­schieht ent­we­der durch spe­zi­el­les Trai­ning („fine-tu­ning“) oder durch ge­zielte sprach­li­che An­wei­sun­gen, sog. Prompts.

Grund­le­gend wer­den diese Mo­delle dar­auf trai­niert, Kon­text zu ver­ste­hen. Dazu ent­fernt man meis­tens Teile aus Da­ten, z. B. Bild­aus­schnitte oder Wörter, und lässt die Mo­delle diese feh­len­den Be­stand­teile wie­der re­kon­stru­ie­ren. Das macht man dann auf unzähli­gen, aus dem In­ter­net verfügba­ren, Da­ten. Die­sen ers­ten Trai­nings­schritt nen­nen wir „Pre-Trai­ning“.

Da­nach be­ginnt die Ad­ap­tie­rung der Mo­delle auf be­stimmte Domänen oder Auf­ga­ben. Das kann z. B. durch fine-tu­ning mit ent­spre­chend spe­zi­fi­sche­ren Da­ten ge­macht wer­den. Al­ter­na­tiv kann die Ad­ap­tion im Falle von großen Sprach­mo­del­len auch durch natürlich­spra­chige An­wei­sun­gen („Prompts“) ge­sche­hen.

Hier liegt gleich­zei­tig auch ei­ner der span­nends­ten As­pekte der Foun­da­tion Mo­dels. Durch die unzähli­gen Da­ten, die das Mo­dell im Pre-Trai­ning ge­se­hen hat, ent­wi­ckelt es ein sehr gu­tes kon­text­uel­les Verständ­nis von Da­ten. Beim Ad­ap­tie­ren brau­chen wir dann im Ver­gleich zu früheren Mo­dell­ar­ten we­sent­lich we­ni­ger Da­ten. Er­ste Pro­to­ty­pen von An­wen­dun­gen können so in kürzes­ter Zeit er­stellt wer­den, in dem man auf frei erhält­li­che oder kom­mer­zi­elle Foun­da­tion Mo­dels zurück­greift. Gleich­zei­tig ermöglicht das Ad­ap­tie­ren durch natürli­che Sprache, dass auch Per­so­nen ohne Ma­chine Learning Hin­ter­grund diese Mo­delle auf ihre Zwecke an­pas­sen können.

Al­ler­dings gibt es hier viel zu be­ach­ten. Ohne spe­zi­el­les Fine-Tu­ning und Ab­si­che­rung er­rei­chen die Mo­delle in vie­len An­wen­dun­gen nicht die Qua­lität, die für eine Au­to­ma­ti­sie­rung ge­eig­net ist. Einen Pro­to­typ kann man also zügig er­stel­len, zur vollständi­gen Lösung benötigt man wei­ter­hin spe­zi­elle Kom­pe­ten­zen zum Fine-tu­nen und Ab­si­chern der Mo­delle.

Wo lie­gen die Ri­si­ken all­ge­mein zugäng­li­cher KI? Oder ist gar de­ren Ver­trau­enswürdig­keit zu hin­ter­fra­gen?

All­ge­mein zugäng­li­che KI bie­tet uns erst­mal viele Chan­cen, das möchte ich hier ganz stark be­to­nen. Wir soll­ten auf diese Res­sour­cen zu­grei­fen und sie nut­zen. Ein ho­hes Ri­siko liegt darin, dass Un­ter­neh­men das Po­ten­tial nicht er­ken­nen. Wir wir­ken dem mit Schu­lun­gen und Work­shops ent­ge­gen und stel­len dann auch im­mer schnell fest, dass in je­dem Un­ter­neh­men große Po­ten­tiale durch KI ge­ho­ben wer­den können.

Natürlich gibt es auch Ri­si­ken bei der An­wen­dung, die wir be­ach­ten müssen. Im Hin­blick auf die Ver­trau­enswürdig­keit der Mo­delle gibt es eine Viel­zahl von Her­aus­for­de­run­gen:

  • Wir müssen si­cher­stel­len, dass die Mo­delle fair sind, d. h., dass z. B. Per­so­nen mit be­stimm­ter Her­kunft nicht be­nach­tei­ligt wer­den.
  • Wir müssen für Verläss­lich­keit sor­gen, also gewähr­leis­ten, dass die Ant­wor­ten nicht hal­lu­zi­niert, son­dern fak­ti­sch kor­rekt sind.
  • Wir müssen den Da­ten­schutz be­ach­ten, d. h. wir dürfen be­son­ders ge­ne­ra­tive Mo­delle nicht ein­fach mit sen­si­ti­ven Mo­del­len füttern, da diese mögli­cher­weise leicht zu re­kon­stru­ie­ren sind. Google hat erst neu­lich ge­zeigt, dass aus OpenAI-Mo­del­len Gi­ga­bytes an Trai­nings­da­ten ex­tra­hiert wer­den können, in­dem sie diese ge­be­ten ha­ben, be­stimmte Zei­chen­fol­gen be­son­ders oft zu wie­der­ho­len.
  • In An­wen­dun­gen muss ge­nau de­fi­niert sein, wie au­to­nom diese Mo­delle agie­ren, bzw. an wel­chen Stel­len und wie oft Men­schen in Pro­zesse ein­grei­fen.
  • Wir müssen die Mo­delle ge­gen An­griffe ab­si­chern – was pas­siert z. B., wenn je­mand un­sere Prompts auf dem Weg zum Sprach­mo­dell ma­ni­pu­liert und wir plötz­lich fal­sche Ant­wor­ten oder schädli­che Ant­wor­ten be­kom­men?
  • Ein wei­te­rer wich­ti­ger As­pekt ist die Trans­pa­renz: Wie kommt ein Foun­da­tion Mo­del zu ei­ner Ant­wort? Das ist bei die­sen Mo­del­len schwer nach­voll­zieh­bar, aber ge­rade in kri­ti­schen An­wen­dungs­be­rei­chen ein ex­trem wich­ti­ger Fak­tor.

Es gibt also genügend Her­aus­for­de­run­gen und As­pekte der Ver­trau­enswürdig­keit, die wir be­ach­ten soll­ten – al­ler­dings gibt es auch genügend Maßnah­men, um diese As­pekte zu si­chern.

Natürlich ist auch der Miss­brauch sol­cher Mo­delle möglich, Des­halb ist es gut, dass die An­wen­dungs­be­rei­che re­gu­liert wer­den. Ich befürchte den­noch, dass wir in Zu­kunft im­mer häufi­ger von Be­trugsfällen auf Ba­sis ge­ne­ra­ti­ver Mo­delle hören wer­den. Wir müssen uns dar­auf ein­stel­len, dass wir von Fällen hören wer­den, in de­nen eine täuschend echte Ko­pie ei­ner Per­son zu se­hen sein wird, viel­leicht so­gar mit na­hezu per­fekt imi­tier­ter Stimme. Erst kürz­lich gab es einen Be­trugs­fall, bei dem so­gar meh­rere Per­so­nen imi­tiert und so eine Summe von 24 Mil­lio­nen Euro ge­stoh­len wurde. Hier brau­chen wir schnell Lösun­gen, um Un­ter­neh­men und Pri­vat­per­so­nen zu schützen. Wir ent­wi­ckeln bei­spiels­weise Prüfver­fah­ren, um KI zu zer­ti­fi­zie­ren.

Vie­len Dank, lie­ber Herr Gies­sel­bach für das Ge­spräch, das wir in der nächs­ten Aus­gabe un­se­rer no­vus Man­dan­ten­in­for­ma­tion fort­set­zen.

nach oben