Um die Risiken der Anwendung von KI zu begrenzen, hat die FINMA die Aufsichtserwartungen an den Einsatz von KI in den Geschäftsprozessen von Beaufsichtigten konkretisiert. Die Erwartungen, die auf vier Bereiche fokussierten (siehe Grafik), wurden dabei mit verschiedenen Stakeholdern abgestimmt und verfeinert und im Risikomonitor 2023 detailliert beschrieben.
Die FINMA setzt im dynamischen Bereich der KI stark auf den engen Austausch mit Expertinnen und Experten im In und Ausland sowie mit Finanzmarktinstituten, die KI anwenden. Aus den Gesprächen lässt sich festhalten, dass die meisten Institute, die KI anwenden, die Entwicklungen auf diesem Gebiet sehr aufmerksam beobachten. Viele experimentieren derzeit aber auch in Einsatzbereichen mit eher begrenzten Risiken. Das Ziel ist dabei selten eine vollständige Automatisierung, und der Mensch wird im Prozess noch als sehr wichtig angesehen. Die Industrie begrüsst die Technologieneutralität und den risikobasierten Ansatz der FINMA. Da es sich bei KI grundsätzlich um eine technische Evolution handelt, bewerten die meisten Institute die Risiken nicht grundsätzlich als neu und adressieren sie bereits im Rahmen existierender Risikomanagementprozesse.
Zusätzlich zur Kommunikation ihrer Aufsichtserwartungen prüft die FINMA, ob das Risikomanagement und die Governance für KI bei den Beaufsichtigten angemessen sind. Um KI-spezifische Risiken zu er fassen, zu begrenzen und zu überwachen, führt sie seit dem vierten Quartal 2023 VorOrtKontrollen und Aufsichtsgespräche bei Finanzinstituten durch, die KI umfassend oder in aufsichtsrelevanten Bereichen einsetzen. Zudem betrachtete sie im Rahmen der laufenden Aufsicht erste Anwendungen im Asset Management, Transaktionsmonitoring und Liquiditätsmanagement näher.
(Aus dem Jahresbericht 2023)