Generative Künstliche Intelligenz (KI) hält Einzug in die Rechtsabteilungen globaler Konzerne. Fast die Hälfte (44 %) von 200 befragten Chef-Juristen (General Counsel) in einem Dutzend Länder haben angegeben, heute aktiv generative KI zu nutzen. Im Vorjahr waren es noch 28 %, 2023 hatte dies jeder fünfte Befragte angegeben. Das ist das Ergebnis des General Counsel Report 2025 der Unternehmensberatung FTI Consulting und des globalen Spezialisten für Legal Technology Relativity.
Stärkste Nutzung bei Dokumentenprüfung und E-Discovery
Besonders sicher fühlen sich General Counsels und ihre Abteilungen bei der Nutzung von Künstlicher Intelligenz im Bereich der Überprüfung von Dokumenten (85 %), der digitalen Sicherung und Aufbewahrung von Massendaten im Rahmen rechtlicher Untersuchungen, der so genannten E-Discovery (80 %), sowie bei der Unterstützung in der Führung und des Managements der Rechtsabteilungen (Legal Operations: 79 %). Die Bereiche mit der geringsten Vertrautheit sind die Frühphase einer juristischen Fallbewertung (Early Case Assessment: 42 %), grundsätzliche interne Untersuchungen von möglichem Fehlverhalten, Regelverstößen oder Straftaten (Investigations: 53 %) und des Monitorings von Compliance-Verstößen (57 %).
Mangelnde Vorbereitung auf rechtliche Risiken neuer Technologien
Rechtsabteilungen sehen in Künstlicher Intelligenz durchaus Chancen für die eigene Tätigkeit. Sie müssen jedoch vor allem mit den rechtlichen Risiken jetziger und künftiger KI- und sonstiger moderner Digital-Anwendungen umgehen, die sich für das gesamte Unternehmen ergeben. Gar nicht oder minimal vorbereitet fühlen sich die befragten General Counsel dabei im rechtlichen Kontext von generativer KI sowie Blockchains. Das sagen jeweils 85 % der Befragten. 65 % fühlen sich wenig auf die zunehmende Anzahl an Datenquellen vorbereitet, 62 % auf weitere Formen von KI und 54 % auf Schatten-IT. Das ist der Einsatz von Software und Hardware durch Mitarbeiterinnen und Mitarbeiter, die nicht offiziell vom Arbeitgeber bereitgestellt oder genehmigt wurden.