FONDS professionell Österreich, Ausgabe 2/2024
management in der Administration oder beim Reporting unterstützen kann. Wie die Tests verlaufen, erfährt man nicht. Aber eines stellt eine Sprecherin klar: Im eigent- lichen Asset-Management-Prozess sieht die KAG wenig Platz für KI-Tools. „Das Modell wird sehr schnell zu einer Blackbox, die zwar Signale generiert, wo aber nicht nach- vollziehbar ist, wie es zu diesen kommt“, heißt es gegenüber der Redaktion. Im Fondsmanagement bleiben also vorerst eher Analysen und Zusammenfassungen interessant. So kann die KI etwa Audio- spuren von Analystencalls oder CEO-An- sprachen resümieren, was Portfoliomana- gern Zeit spart und ihnen Dokumente aus vergangenen Jahren analytisch zugänglich macht. Bekannt ist, dass große Häuser wie Goldman Sachs oder J.P.Morgan längst auf solche Dienste vertrauen. Die Entscheidung, welche KI-Dienste eine Bank aus der ganzen Fülle zuerst ein- setzt, ist momentan nur eine von vielen: „Die Institute müssen sich auch fragen: Wie kann ich eine KI-Governance imple- mentieren?“, betont KMPG-Partnerin Karin Bruchbacher. Sie verweist damit auf den EU Artificial Intelligence Act (EU AI Act), der im März vom EU-Parlament formal verabschiedet wurde. Erste Regeln daraus dürften schon kommendes Jahr anzuwen- den sein, auch wenn die Endfassung mo- mentan noch gar nicht vorliegt. „Die frist- gerechte Umsetzung aller Voraussetzungen des AI Act stellt sicher eine Herausforde- rung dar“, berichtet Bruchbacher aus der Praxis. Auch die Abgrenzung, welches Risi- kosystem man betreibt, werde nicht leicht. Die EU-Verordnung reguliert vor allem die Hochrisikosysteme (siehe unten). Darunter fällt etwa eine KI, die zur Bonitätsprüfung genutzt wird. Ob solche Tools eingesetzt werden, will momentan keine Bank sagen. Insgesamt gilt der EU AI Act als liberal in dem Sinn, dass er Innovationen aus- drücklich begünstigen will. Die EU hinkt nämlich bei dieser zukunftsweisenden Ent- wicklung hinterher (siehe Grafik Vorseite). Dank der ChatGPT-Veröffentlichung sind aber auch in Europa die Unternehmen aufgewacht. „Der Mut zur Innovation ist bei KI viel größer als bei anderen Themen. Man muss es niemandem erklären. KI steht auf jeder CEO-Agenda. Jeder will vorn mit dabei sein“, so Unternehmens- berater Ginner. EDITH HUMENBERGER-LACKNER FP Risikostufen im AI Act der EU Risikostufen im AI Act Der EU AI Act gilt als weltweit erstes Gesetzeswerk, das den KI-Einsatz umfassend reglementiert. Einige Praktiken will die EU-Kommission komplett verbieten. Bei Hochrisikosystemen gibt es Dokumentationspflichten. Sie nehmen den größten Platz im AI Act ein. Quelle:FONDSprofessionell,EUAIAct Verbotene Praktiken: Social Scoring (Bewertung aufgrund von Sozialverhalten), unterschwellige Beein- flussung, biometrische Kategorisierung wie Gesichtserkennung oder Identifizierung weltanschaulicher Überzeugungen. Ausnahmen bestehen in der Strafverfolgung (etwa Opfersuche oder Täterverfolgung). Hochrisiko-KI-Systeme: KI-Systeme in Einsatzgebieten wie Energie- oder Wasserversorgung, Personalwesen, Zugang zu Bildung, Bewertung von Bildungsleistungen, Kreditwürdigkeits- prüfungen und Kreditpunktebewertung, Strafverfolgung, Asyl und Grenzkontrolle. Anbieter von Hochrisikosystemen müssen ein eigenes Risikomanagement aufsetzen und die Gesetzes- konformität dokumentieren. Transparenzpflichten: Für manche KI-Tools sollen nur geringe Transparenz- pflichten gelten. Bei Chatbots oder Deep Fakes müssen Nutzer in Kenntnis gesetzt werden, dass sie es mit KI zu tun haben. Unregulierte Risiken: Anwendungen wie KI-gestützte Videospiele oder Spamfilter. Ver- botene Praktiken Hochrisiko- KI-Systeme Transparenzpflichten Unregulierte Risiken » Die fristgerechte Umsetzung des AI Act stellt sicher eine Herausforderung dar. « Karin Bruchbacher, KPMG BANK & FONDS KI-Banken 226 fondsprofessionell.at 2/2024 FOTO: © KPMG
RkJQdWJsaXNoZXIy ODI5NTI=