Die DVFA hat ihre Investment Professionals dazu befragt, wie sie den aktuellen KI-Einsatz hinsichtlich Nutzen, Grenzen und Hemmnissen in ihrem beruflichen Umfeld einschätzen. „KI ist in vielen Teams inzwischen ein Produktivitätswerkzeug – besonders bei Text, Strukturierung und der schnellen Vorbereitung von Inhalten. Entscheidend ist, dass wir Governance und Datenqualität so aufsetzen, dass aus Tempo auch Verlässlichkeit wird“, kommentiert Christoph Schlienkamp, Leiter des neu gegründeten DVFA-Fachausschusses Künstliche Intelligenz.
Zur Texterstellung liefert KI derzeit den größten Mehrwert
Den lohnendsten Anwendungsfall für Künstliche Intelligenz sehen die Investment Professionals der DVFA in ihrem Arbeitsfeld aktuell bei der Erstellung von Texten, beispielsweise für Zusammenfassungen oder Protokolle, aber auch zur Vorbereitung von Frage-/Antwortkatalogen (insgesamt 50 % der Antworten).
An zweiter Stelle folgt weit dahinter mit 18 % die Unterstützung zur Ideenfindung im Research, etwa für Hypothesen, Screenings und Peer-Vergleiche. In der Rangordnung der wichtigsten Anwendungsfälle folgt fast gleichauf die Erleichterung bei der Datenarbeit, etwa um KPIs für Reports zu extrahieren bzw. zu strukturieren (17 %).
Dagegen liefert KI zumindest bisher nur in geringem Umfang einen Mehrwert für das Monitoring von Frühwarnsignalen oder in der News-/Sentiment-Analyse (5 %), ebenso zur Kennzahlenberechnung im Rahmen von Unternehmensbewertungen (2 %).
Ad-hoc Einsatz mit Einzel-Prompts bestimmt bisher die KI-Nutzung
Befragt nach ihrem aktuellen KI-Einsatz, gab die überwiegende Mehrheit (71 %) der Umfrageteilnehmer an, KI-Werkzeuge bisher mittels Einzel-Prompts eher „ad hoc“ einzusetzen, also punktuell und oft auch nur experimentell. Immerhin jeder Fünfte (21 %) nutzt die neuen Möglichkeiten dagegen auch für standardisierte Workflows bzw. Templates, etwa um Reports zu überprüfen. Der weitgehend automatisierte Einsatz von End-to-End-Agenten hat sich angesichts von nur 4 % der Antworten offenkundig noch nicht durchgesetzt. Und 3 % setzen KI derzeit gar nicht ein.
Öffentlich zugängliche Tools sind führendes KI-Setup
Fast die Hälfte (47 %) der Investment Professionals, die KI bereits einsetzen, nutzen öffentlich zugängliche Tools wie ChatGPT oder Gemini, ohne dabei interne Daten einzusetzen. Zweitwichtigstes KI-Setup bilden mit 25 % der Antworten Lösungen wie Inhouse-Modelle in geschützter Umgebung, wo interne Daten ohne die Gefahr von beispielsweise Copyright-Konflikten genutzt werden können.
Fast jede vierte Antwort (23 %) entfiel auf den Einsatz von Microsoft Copilot (M365/Teams/Excel). Mit 2 % bildet die Nutzung von Spezialplattformen, zum Beispiel von Research- oder Datenanbietern, mit KI bisher höchstens eine kleine Anwendungsnische in der Finanzanalyse.
Datenqualität, Compliance-Regeln und Copyrightfragen bremsen KI-Einsatz
Dass die Qualität der Input-Daten bei großen, öffentlichen KI-Modellen oft mangelhaft und nicht nachprüfbar ist, bremst im Berufsalltag der DVFA Investment Professionals den Einsatz von KI-Instrumenten am stärksten (46 % der Antworten).
Große Unklarheiten bestehen zudem hinsichtlich der Einhaltung von Urheberrechts-, Datenschutz- und Compliance-Vorgaben über die KI-Prozesskette, weshalb auch interne Richtlinien einem breiteren KI-Einsatz im Wege stehen, nicht zuletzt aus Haftungsgründen (27 %).
Hoher Integrationsaufwand wie zum Beispiel für IT-Schnittstellen und -Prozesse, Reputationsrisiken sowie mangelnde Akzeptanz bei Kunden bilden weitere Hindernisse (14 %).
Zusätzliche Gründe für den bisher nur zögerlichen KI-Einsatz in Kernprozessen der Finanzanalyse sind fehlende Skills, unklare Vorgaben sowie interne Widerstände gegen Veränderungen und Ängste vor drohender Entfremdung vom Berufsbild des „selbstdenkenden Finanzanalysten“ (13 %).
Strikte menschliche Kontrolle bleibt unverzichtbar
Fast die Hälfte der Umfrageteilnehmer (49 %) war sich einig darin, dass Kennzahlenberechnungen oder Unternehmensbewertungen als Entscheidungsbasis niemals mittels KI entstehen dürften oder andernfalls unbedingt eine Kontrolle durch „menschliche Intelligenz“ erforderten.
Auch KI-generierte Research-Ideen sowie News-/Sentiment-/Frühwarnsignale, die relativ hohen Mehrwert aus KI-Einsatz erwarten lassen, müssten stets auf ihre Validität überprüft werden (24 % der Antworten). Gleiches fordert jeder Zehnte für die Textgenerierung mittels KI, etwa für Zusammenfassungen oder Q&A-Vorschläge. Etwas weniger rigide fällt das Urteil für KI-generierte KPI-Extraktion bzw. Daten-Strukturierung aus Reports aus (5 %).
In Kommentaren bemerkten einige der Befragten, dass im Grunde „alles noch einmal überprüft werden“ müsse, ähnlich wie bei einem Berufsanfänger. Anders als bei einem talentierten Mitarbeiter scheint jedoch das Potenzial für KI-Tools begrenzt, solange sie aus beliebigen, teilweise fragwürdigen und zunehmend auch aus KI-generierten Quellen schöpfen, und in ihre Ergebnisse immer wieder auch „halluzinierte“ Passagen einbauen. Daher dürften solche KI-Produkte schon aus Haftungsgründen nicht vorbehaltlos verwendet werden. Dies gelte insbesondere für weitreichende Investment-Entscheidungen.
„Die Umfrage zeigt eine gesunde Professionalität: KI ist willkommen als Assistenz, aber nicht als Ersatz für Analyseverantwortung. Gerade bei Bewertung und entscheidungsrelevanten Recherchen braucht es transparente Methoden, Plausibilisierung und klare Leitplanken“, sagt Volker Sack, Leiter der DVFA-Kommission Unternehmensanalyse, der der Fachausschuss KI thematisch zugeordnet ist.