Seit einigen Wochen testet die Raiffeisen KAG, inwieweit künstliche Intelligenz (KI) die Arbeit in der Fondsadministrierung und im Portfoliomanagement vereinfachen kann. "Es gibt erste Pilotversuche, die vor allem Bereiche wie Administration oder Reporting betreffen", sagte CEO Hannes Cizek vor Journalisten in Wien. Man könne jedoch aus den frühen Versuchen noch wenig ableiten. "Wir prüfen, ob es Potenziale gibt", so Cizek. Sämtliche Tests würden ausschließlich über eine private, geschützte Infrastruktur ablaufen. Man werde nicht eigenes Wissen hinausspielen.

Im Fondsmanagement stehe die Frage im Vordergrund, ob KI für den Bereich Datenabfragen oder Analysen und Zusammenfassungen tauglich ist. "Es geht weniger darum, dass KI eine Allokation vorbereiten soll, sondern darum, zu testen, ob uns diese Systeme zum Beispiel ESG-Angaben oder andere Kapitalmarktdaten effizienter aufbereiten können", so Cizek.

KI-Forscherin: Gefahren tiefer analysieren
Sandra Wachter, Juristin und KI-Forscherin an der Oxford University, begrüßte bei dem Termin, dass sich neben der Wirtschaft auch die Regulatoren immer stärker mit KI beschäftigen. Denn den großen Chancen stünden rechtliche Fragen und Gefahrenpotenziale gegenüber, wie die heuer von zahlreichen Tech-Unternehmern und Forschern unterzeichneten offenen Briefe "Pause Giant AI Experiments" und "Statement On AI Risk" zeigen.

Beide Warnbriefe würden sich jedoch fast ausschließlich auf den Kontrollverlust oder auf "Terminator-Szenarien" beziehen, wonach die KI dem Menschen über den Kopf wächst, kritisierte Wachter. Unmittelbare und aktuelle Konsequenzen für die Individuen kommen darin hingegen nicht oder nur am Rande vor. Dazu zählt etwa das Güterrecht (Wem gehören die Daten, auf die die KI zurückgreift?), Datenschutz (Hacking, oder persönliche Infos über jemanden sammeln), Diskriminierung, Umweltaspekte (eine Trainingsrunde von ChatGPT verbraucht die Energie von 126 Haushalten) sowie mögliche Arbeitsmarktturbulenzen durch den Wegfall gewisser Jobs. Es handle sich um Themen, auf die die Industrie oder die Unterzeichner der Warnbriefe selbst gern weniger Licht fallen lassen würden, so Wachter.

EU-AI-Act: Bürger können sich nicht persönlich wehren
Lobend hob sie die EU hervor, die mit ihrem vorgeschlagenen AI Act (KI-Verordnung) aus dem Jahr 2021 und in zusätzlichen Verhaltensstandards als erster Rechtsraum die Nutzung regeln will. Demnach soll zum Beispiel der KI-Einsatz in Bereichen wie Gesichtserkennung oder Social Engineering genauso verboten werden wie unterschwellige Beeinflussungen. Ein Problem sei allerdings, dass im AI Act keine Beschwerdemöglichkeit für Einzelne vorgesehen sei. Das EU-Parlament hat zwar eine Beschwerderecht gefordert. Doch selbst nach diesen Vorschlägen müsste man Fehler und Verschulden nachweisen, was für Einzelne schwierig wird. KI sei bereits seit zehn Jahren im Einsatz, erst durch das Endanwenderprogramm ChatGPT sei heuer einer breiteren Masse die Tragweite bewusst geworden, so Wachter.

Der enorme Aufwind, den KI-Anwendungen in den vergangenen Monaten in der öffentlichen Wahrnehmung erfahren haben, dürfte am Ende auch für Anleger interessant werden. Man gehe davon aus, dass künstliche Intelligenz in den kommenden zehn Jahren 1,3 Prozent p.a. zum BIP-Wachstum beitragen wird, sagte Günther Schmitt, Fondsmanager und Leiter des Bereichs "Aktien, entwickelte Märkte" in der Raiffeisen KAG. Unternehmen wie Nvidia, ein Entwickler von Grafikprozessoren für KI-Anwendungen, würden mittlerweile wesentliche Wachstumsbeiträge leisten.

Aus Investorensicht dürfe man jedoch nicht nur die Effizienzgewinne beachten, man müsse sich im Dialog mit den Unternehmen etwa auch mit neuen Governance-Problemen wie Meinungsmanipulation auseinandersetzen. Abzuwarten seien die Auswirkungen auf den Arbeitsmarkt. Schmitt geht nicht von einem Jobverlust auf breiter Ebene aus und verweist auf den Arbeitskräftemangel. Ein steigender Automatisierungsgrad könne in diesem Umfeld ein effizienteres Arbeiten ermöglichen. (eml)