FONDS professionell Österreich, Ausgabe 1/2024
urkonservativ.Man sollte lieber von „künst- licher Dummheit“ sprechen. Moment, KI kann doch in Sekundenbruch- teilen auf das Wissen der Welt zugreifen. Ganz dumm kann sie dann nicht sein. Sie ist aber keine kluge Bibliothekarin, die dieses Wissen einzuordnen weiß. Es handelt sich nur um ein statistisches Modell. Was die KI sagt, ist oft richtig, manchmal aber auch völlig falsch. Das Problem ist, dass sie diese falschen Ergebnisse mit hoher Über- zeugungskraft kundtun kann. Ich empfehle Laien, sich KI als hoch motivierten, aber schlampigen Mitarbeiter vorzustellen, dem man dauernd auf die Finger schauen muss. KI ermöglicht echte Effizienzgewinne. Ohne Kontrolle geht es aber nicht. Das klingt so, als würde es in der Anlage- beratung denMenschen – zumindest Stand heute – noch brauchen. Aber wie sieht das in einigen Jahren aus, wenn die KI vielleicht nicht mehr so „dumm“ ist wie heute? Wo stößt die Technologie an ihre Grenzen? Das kommt auf die Kundenbeziehung an. Ich denke, viele Anleger möchten auch in Zukunft nicht auf den persönlichen Kon- takt verzichten, wenn sie über den Ver- mögensaufbau oder die Altersvorsorge sprechen.Der Finanzberater wird daher nie vollständig wegautomatisiert werden. Selbst wenn es gelingt, einen Avatar zu kreieren, der Empathie zeigen kann: Menschen möchten es in bestimmten Situationen mit Menschen zu tun haben. Sie beschäftigen sich viel mit ethischen Fragen der KI-Anwendung. In einem Vor- trag haben Sie argumentiert, dass KI dazu geeignet ist, schnellere, bessere und trans- parentere Entscheidungen zu fällen – los- gelöst von denVorurteilen, diemenschliche Entscheidungen prägen. Andererseits wird der KI häufig vorgeworfen, menschliche Vorurteile nur zu reproduzieren. Was stimmt denn nun? Beides ist richtig. KI wird in 99 Prozent der Fälle einen Bias aufweisen, also vorein- genommen sein, einfach weil die Daten biased sind.Wenn ich einemHund ungute Dinge beibringe, ist es nicht die Schuld des Hundes, wenn er sich schlecht verhält, son- dern der Fehler liegt bei mir. Der Unter- schied ist: EinemMenschen kann ich nicht in den Kopf hineinschauen, einer KI schon. Wenn ich in einem Vorstellungsgespräch sitze, wird mir der Manager nie sagen, dass er mir den Job nicht gibt, weil ich eine Frau bin – so blöd wird er nicht sein. Es ist durchaus möglich, dass eine KI die Stelle aus dem gleichen Grund nicht mit mir be- setzt. Bei ihr kann ich aber hineinschauen und erfahren, warum ich die Absage erhal- ten habe, und herausfinden, wie sich dieser Fehler in Zukunft vermeiden ließe. » Ich empfehle Laien, sich KI als hoch motivierten, aber schlampigen Mitarbeiter vorzustellen, dem man dauernd auf die Finger schauen muss. « Sandra Wachter, Universität Oxford FOTO: © NIKOLA HAUBNER fondsprofessionell.at 1/2024 199
RkJQdWJsaXNoZXIy ODI5NTI=