Der Einsatz von KI in der Personalabteilung birgt großes Potenzial, Prozesse wie Stellenausschreibungen, Kandidatenscreening und Skillmanagement effizienter zu gestalten. Allerdings bergen viele Anwendungen im HR-Bereich Risiken für Sicherheit und Grundrechte und müssen strenge Vorschriften des EU AI Acts wie Datensparsamkeit und Transparenz einhalten. Zudem besteht das Risiko von Diskriminierung. André Kock, Manager bei KPMG Law, erklärt, wie man Stolperfallen und Haftungsprobleme vermeidet.
DB: Herr Kock, welche konkreten Aufgaben kann KI in der HR-Abteilung übernehmen, und wie verbessert sie bestehende Prozesse?
André Kock: KI kann insbesondere im Recruiting, Onboarding oder auch im Rahmen der Leistungsbewertung unterstützen. Im Recruiting kann KI die Bewerbungen filtern, erstellt Stellenanzeigen und kann erste Bewerbungsgespräche führen. Das beschleunigt die Kandidatensuche. Beim Onboarding können Chatbots Fragen neuer Mitarbeiter beantworten und erstellen personalisierte Einarbeitungspläne, was die Integration erleichtert. KI analysiert Mitarbeiterdaten, um Entwicklungspotenziale zu identifizieren und individuelle Lernpfade zu erstellen. Das ermöglicht eine gezieltere Personalentwicklung und höhere Mitarbeitermotivation. Zudem kann KI zur Gleichstellung und fairen Vergütungen beitragen, indem sie Gehaltsstrukturen analysiert und Diskriminierung vermeidet. Im Leistungsmanagement kann KI durch objektive Leistungsbewertung und die Identifizierung von Leistungsträgern unterstützen. Insgesamt kann KI die Effizienz von HR-Prozessen erhöhen, Kosten für Unternehmen reduzieren und zu einer objektiven Entscheidung bei Mitarbeitern beitragen.
DB: Das klingt natürlich alles super. Welche Risiken sehen Sie im Einsatz von KI-Systemen im HR-Bereich, besonders in Bezug auf Datenschutz und Sicherheit?
André Kock: Die menschliche Aufsicht und Schulungen der Mitarbeiter im Umgang mit KI sind unerlässlich. KI-Systeme verarbeiten sensible Mitarbeiterdaten, was bei unzureichendem Schutz zu Datenschutzverletzungen führen kann. Intransparente Entscheidungsfindung von KI-Systemen kann Misstrauen und das Gefühl der Überwachung erzeugen. Diskriminierung ist ein weiteres Risiko, da KI-Systeme bestehende Vorurteile verstärken können, wenn diese nicht richtig angelernt werden. Mögliche Sicherheitsrisiken bestehen auch durch Manipulation von KI-Systemen, um falsche Ergebnisse zu liefern. Zu starke Abhängigkeit von KI kann menschliche Expertise und kritisches Denken verdrängen. Um diese Risiken zu minimieren, sind bedarfsgerechte KI-Prozesse zu prüfen und Kontrollprozesse essenziell.
DB: In welchen Bereichen ist der Einsatz von KI im HR besonders heikel, und warum?
André Kock: Der Einsatz von KI im HR-Bereich ist besonders heikel in Bereichen mit weitreichenden Folgen für Mitarbeiter wie z.B. der Personalauswahl. Hier besteht die Gefahr der Diskriminierung durch die Reproduktion menschlicher Vorurteile in Algorithmen. Auch bei Beförderungen, Kündigungen und Leistungsbewertung ist KI kritisch zu hinterfragen, um faire und transparente Entscheidungen zu gewährleisten. Die Analyse von Emotionen und Persönlichkeitsmerkmalen durch KI kann ggf. die Persönlichkeitsrechte der Mitarbeiter verletzen. Transparenz und ethische Richtlinien sind hier entscheidend.
DB: Wie beeinflusst der EU AI Act den Einsatz von KI in der Personalabteilung?
André Kock: Der EU AI Act beeinflusst die Personalabteilung maßgeblich. Er schafft einen rechtlichen Rahmen für KI-Systeme und berücksichtigt ethische Bedenken. HR-relevante KI-Systeme wie z.B. in der Bewerberauswahl werden häufig als Hochrisiko-KI eingestuft und unterliegen strengen regulatorischen Vorgaben. Unternehmen müssen ein Risikomanagement-System implementieren, Daten offenlegen und menschliche Überwachung gewährleisten. Der EU AI Act fördert Transparenz und Nachvollziehbarkeit, was zu Anpassungen bestehender KI-Anwendungen führen kann.
DB: Was müssen HR-Teams hinsichtlich der Risikomanagement-Anforderungen beim Einsatz von KI beachten?
André Kock: HR-Teams müssen beim Einsatz von KI im Risikomanagement die spezifischen Risiken identifizieren wie z.B. Datenschutzverletzungen, Diskriminierung oder Kontrollverlust. Geeignete Maßnahmen zur Risikominderung wie Kontrollen zur Verhinderung von Datenschutzverstößen Schulungen und menschliche Überprüfung müssen ergriffen werden. Zudem sind eine kontinuierliche Überwachung und Anpassungen des Risikomanagements elementar. Denn der EU AI Act verpflichtet Unternehmen zu einem geeigneten Risikomanagement-System für Hochrisiko-KI.
DB: Wie lässt sich die Einhaltung des Grundsatzes der Datensparsamkeit in KI-Projekten sicherstellen?
André Kock: Um den Grundsatz der Datensparsamkeit in KI-Projekten zu gewährleisten, ist ein bewusster und verantwortungsvoller Umgang mit Daten wichtig. Das beginnt mit einer klaren Definition des Projektziels und der Frage, welche Daten dafür wirklich benötigt werden. „Vorratsdaten“ sind zu vermeiden und nur die tatsächlich notwendigen Informationen zu erheben und zu verarbeiten. Wo immer möglich, sollten personenbezogene Daten anonymisiert werden, um Rückschlüsse auf Personen zu reduzieren. Eine regelmäßige Überprüfung der Datenbestände hilft dabei, nicht mehr benötigte Daten zu löschen.
Die Schulung der Mitarbeiter im Datenschutz und im Umgang mit Daten ist ebenfalls wichtig, damit sie die Prinzipien der Datensparsamkeit verstehen und anwenden. Transparenz lässt sich durch die Dokumentation der Datenverarbeitungsprozesse und der getroffenen Maßnahmen schaffen. Bei KI-Projekten mit hohem Risiko für die Rechte und Freiheiten der Betroffenen ist eine Datenschutz-Folgenabschätzung durchzuführen. Durch die konsequente Umsetzung dieser Maßnahmen stellen Unternehmen sicher, dass sie den Grundsatz der Datensparsamkeit einhalten und die Datenschutzbestimmungen erfüllen.
DB: Welche Rolle spielt die Datenqualität und -auswahl bei der Nutzung von KI in der Personalabteilung?
André Kock: Eine KI ist nur so gut wie die Daten, mit denen sie arbeitet. Wenn die Trainingsdaten Verzerrungen oder Vorurteile enthalten, dann wird die KI diese Verzerrungen oder Vorurteile in ihren Entscheidungen reproduzieren. Dies kann im HR-Bereich zu einer Diskriminierung führen.
DB: Inwiefern kommt es denn zu Diskriminierung?
André Kock: KI-Modelle basieren auf Algorithmen, die von Menschen entwickelt und mit Daten trainiert werden. Diese Daten können bereits bestehende gesellschaftliche Vorurteile oder Diskriminierungen enthalten, die die KI dann lernt und in ihren Entscheidungen reproduziert. Selbst wenn die Trainingsdaten neutral sind, können unbewusste Vorurteile der Entwickler in den Algorithmus einfließen und zu diskriminierenden Ergebnissen führen. Ein Mangel an Transparenz bei der Entscheidungsfindung von KI-Systemen erschwert es zudem, Diskriminierung zu erkennen und zu korrigieren. Dies kann bedeuten, dass KI-Systeme im Bewerbungsprozess Bewerber aufgrund von Geschlecht, Herkunft oder Alter benachteiligen, Mitarbeiter unfair bewerten oder bei Beförderungen diskriminieren. Um dies zu verhindern, ist es notwendig, repräsentative und diskriminierungsfreie Trainingsdaten zu verwenden, die KI-Modelle kontinuierlich auf Diskriminierung zu überprüfen und Transparenz in der Entscheidungsfindung zu gewährleisten. Wie eingangs erwähnt: Menschliche Kontrolle und Aufsicht bleiben unerlässlich, um sicherzustellen, dass KI im HR-Bereich fair und gerecht eingesetzt wird und die Anforderungen des Allgemeinen Gleichbehandlungsgesetzes (AGG) umsetzt.
DB: Welche besonderen Transparenzpflichten gelten für KI-basierte Chatbots und andere Anwendungen?
André Kock: Nutzer sollten immer wissen, ob sie mit einem Menschen oder einer Maschine interagieren und wie Entscheidungen zustande kommen. Daher gelten besondere Transparenzpflichten, um das Vertrauen der Nutzer zu gewährleisten.
Zunächst einmal muss offengelegt werden, dass ein KI-System im Einsatz ist. Nutzer sollten klar und verständlich darüber informiert werden, dass sie beispielsweise mit einem Chatbot und nicht mit einem menschlichen Mitarbeiter kommunizieren. Darüber hinaus ist ein weiterer wichtiger Aspekt die Datennutzung. Nutzer sollten darüber informiert werden, welche Daten das KI-System erhebt und wie diese Daten verwendet werden. Dies umfasst Informationen über die Zwecke der Datenverarbeitung, die Speicherdauer und die Rechte der Nutzer. Schließlich sollten Nutzer immer die Möglichkeit haben, bei Bedarf mit einem Menschen in Kontakt zu treten, sei es durch eine E-Mail-Adresse, eine Telefonnummer oder eine andere Kontaktmöglichkeit.
DB: Wie kann der Betriebsrat in die Planung und Einführung von KI-Projekten eingebunden werden?
André Kock: Der Betriebsrat muss in die Planung und Einführung von KI-Projekten eingebunden werden. Dies ist nicht nur sinnvoll, um die Interessen der Arbeitnehmer zu wahren, sondern auch gesetzlich vorgeschrieben. Das Betriebsverfassungsgesetz (BetrVG) gibt dem Betriebsrat weitreichende Mitbestimmungsrechte bei der Einführung neuer Technologien, die die Arbeitsbedingungen der Mitarbeiter beeinflussen. KI-Systeme fallen in der Regel unter diese Kategorie, da sie beispielsweise das Verhalten oder die Leistung der Arbeitnehmer überwachen können oder Einfluss auf die Betriebsabläufe nehmen.
DB: Welche Best Practices gibt es, um die Risiken von KI-Systemen im HR-Bereich zu minimieren?
André Kock: Es gibt keine allgemeingültige Lösung, da die Risiken und die notwendigen Maßnahmen von dem jeweiligen KI-System und seiner Anwendung abhängen.
Ein zentrales Anliegen ist jedoch der Datenschutz. Unternehmen müssen sicherstellen, dass personenbezogene Daten, die von KI-Systemen verarbeitet werden, geschützt sind und die geltenden Datenschutzbestimmungen eingehalten werden. Dies umfasst u.a. die Datenminimierung, Anonymisierung und Sicherheitsmaßnahmen.
DB: Wie sehen Sie die zukünftige Entwicklung der KI-Nutzung in der Personalabteilung, und welche neuen Herausforderungen erwarten uns?
André Kock: Die KI-Nutzung in der Personalabteilung wird in Zukunft rasant zunehmen und die HR-Arbeit grundlegend verändern. Neue, leistungsfähigere KI-Systeme werden entwickelt, die immer komplexere Aufgaben übernehmen und die Effizienz und Effektivität der HR-Prozesse weiter steigern können. Unternehmen sollten rechtszeitig auf den KI-Zug aufspringen.
DB: Vielen Dank für das Interview!
Das Interview führte Viola C. Didier, RES JURA Redaktionsbüro