Ethikbeirat HR Tech

Aktuelles

20.8.2019 – „Wir brauchen nicht nur Analytics OF the People, sondern vor allem Analytics FOR the People!“

Bei LinkedIn erklärt Tandemploy-CEO Anna Kaiser, warum sie sich im Ethikbeirat HR-Tech engagiert und warum es wichtig ist, sich vor dem Einsatz von KI und Big Data Gedanken über das Warum zu machen. „Das Ziel: Besseres Arbeiten für alle durch bessere Kommunikation, starke Verbindungen und die Möglichkeit, sich persönlich und fachlich weiterzuentwickeln.“

15.8.2019 – „Die Prinzipien und Darstellungen der normativen Richtlinien für KI in HR des Ethikbeirat HR-Tech erscheinen mir angemessen und vernünftig“

„Die Prinzipien und Darstellungen der normativen Richtlinien für KI in HR des Ethikbeirat HR-Tech erscheinen mir angemessen und vernünftig. Sie haben einen realistischen Blick auf Softwaresysteme und verfallen nicht einer Überinterpretation heutiger KI-Systeme als tatsächlich intelligente Wesen. Einsatzfelder der neuen Technologie werden realistisch gesehen, ständige kritische Feedback-Prozesse sind vorgesehen. Ich wünsche den Initiatoren und Akteuren viel Erfolg bei der vorgesehenen Fortschreibung dieser Arbeit!“

Prof. Dr. Dr. Dr. h.c. Franz Josef Radermacher, Leiter des Forschungsinstituts für anwendungsorientierte Wissensverarbeitung (FAW) in Ulm, Professor für Datenbanken und Künstliche Intelligenz an der Universität Ulm sowie Präsident des Senat der Wirtschaft.

5.8.2019 – „Künstliche Intelligenz in HR: Ohne Transparenz geht es nicht“

Dr. Markus Karbaum plädiert bei Future-of-HR.com dafür, dass der Ethikbeirat HR-Tech in seinen Richtlinien Ergänzungen im Themenbereich Transparenz vornimmt. Ziel müsse sein, die Akzeptanz von Kandidaten und Mitarbeitenden gegenüber digitalen Technologien zu erhöhen, Vertrauen zu schaffen sowie Feedback zuzulassen.

11. 7. 2019 – „Die 10 Gebote für den Einsatz von KI in der Personalarbeit?“ – Dr. Markus Langer mit einer kritischen Stellungnahme zu den vom Ethikbeirat veröffentlichten Richtlinien

Dr. Markus Langer setzt sich in diesem Blogartikel kritisch mit den kürzlich vom Ethikbeirat HR-Tech veröffentlichten Richtlinien für den verantwortungsvollen Einsatz von KI in der Personalarbeit auseinander. Darin wird beleuchtet, was die Richtlinien des Ethikbeirats aussagen, wie sie mit den EU-Leitlinien für vertrauenswürdige KI zusammenhängen, wie weitreichend sie sind und welche Herausforderungen sie in ihrer praktischen Umsetzung nach sich ziehen könnten. Dr. Markus Langer ist Mitglied des saarländischen Thinktanks Algoright, der sich der Frage verschrieben hat, wie man Digitalisierung multiperspektivisch gut und richtig gestaltet.

25.6.2019 –  Ethikbeirat HR-Tech veröffentlicht Richtlinien für den Einsatz von KI in der Personalarbeit

Der Ethikbeirat HR-Tech hat heute Richtlinien für den verantwortungsvollen Einsatz von Künstlicher Intelligenz im HR-Management vorgelegt. Gleichzeitig wurde mit der Veröffentlichung eine umfassende Konsultationsphase gestartet, die alle Interessierten dazu einlädt, die Richtlinien zu kommentieren und durch fundierte Anregungen weiter zu entwickeln.
» Zur Pressemitteilung
» Zur Publikation der Richtlinien für den verantwortungsvollen Einsatz von KI in der Personalarbeit.

30.4.2019 –  Unsere Umfrage zeigt: Personaler machen sich zum Einsatz von KI schlau

Aktuell steht der Einsatz von Künstlicher Intelligenz in Personalprozessen noch am Anfang. Zwar beschäftigen sich insgesamt 74 Prozent der Personalverantwortlichen in Deutschland intensiv mit dem Thema, oft fehlen ihnen allerdings  noch  die  konkreten Anwendungsbeispiele sowie entsprechende Trainings, um die Technologie selbst einzusetzen . Das ist  das zentrale Ergebnis einer Umfrage, die der Ethikbeirat HR-Tech in Zusammenarbeit mit dem Bundesverband der Personalmanager 1.032 Personalmanager*innen aus unterschiedlichen Branchen durchgeführt hat.
» Zur Auswertung

12.4.2019 –  Drittes Workshop-Treffen

Am 9. April fanden sich die Mitglieder des Ethikbeirat HR-Tech zu ihrem dritten Workshop-Treffen zusammen. Im Zentrum des Workshops stand die Weiterentwicklung von Richtlinien für einen wertschaffenden und zugleich verantwortungsvollen Technologieeinsatz in der Personalarbeit. Die Richtlinien werden in Form eines Arbeitspapiers von dem Personalmanagementkongress 2019 veröffentlicht. Die Veröffentlichung des Arbeitspapiers stellt zugleich den Startschuss einer mehrmonatigen öffentlichen Konsultationsphase dar, in der die Richtlinien unter Einbezug verschiedener Interessengruppen weiter konsolidiert werden sollen.

1.4.2019 – Der Ethikbeirat HR-Tech hat zwei neue Mitglieder

Wir freuen uns Prof. Dr. Katharina Simbeck und Brigitte Zypries als neue Mitglieder des Ethikbeirat HR-Tech begrüßen zu dürfen. Beide stellen sowohl fachlich als auch persönlich eine hochkarätige Verstärkung des Ethikbeirats dar, um Menschen im Umgang mit HR-Tech zu unterstützen und dabei der zugrundeliegenden Komplexität der Thematik gerecht zu werden.
» Die Mitglieder

12.2.2019 – Presseinformation: Ethikbeirat HR Tech gegründet

Auf Initiative des Bundesverbands der Personalmanager (BPM) und der hkp/// group entwickeln VertreterInnen aus Wissenschaft, Start-ups und etablierten Unternehmen praxisorientierte Spielregeln für HR-Tech-Lösungen.
Zur Pressemitteilung

10.1.2019 – Impressionen vom Gründungstreffen

Am 13.12.2018 trafen sich die Gründungsmitglieder des Ethikbeirats HR-Tech in den Räumen von tandemploy in Berlin. In einer offenen und konstruktiven Diskussion wurden Fragen wie das Selbstverständnis, Aufgaben sowie die nächsten Meilensteine für die Arbeit des Gremiums diskutiert.

Video abspielen

Über den Ethikbeirat HR Tech

Unsere Welt befindet sich in einem Rausch des Möglichen. Täglich gibt es neue Schlagzeilen über die Möglichkeiten von Big Data, Künstlicher Intelligenz, Blockchain und anderen Zukunftstechnologien. Startups, Mittelständler und Großkonzerne setzen dabei verstärkt auf diese neuen Technologien und deren Chancen – auch im HR-Management.

Doch gerade in der Personalarbeit tut sich dabei eine Kluft auf: Für die einen kann der Siegeszug neuer Technologien gar nicht schnell genug gehen. Andere sehen die Digitalisierung vor allem als Türöffner für Datenmissbrauch, Überwachung und Manipulation. Und die Grenzen zwischen persönlichem Mehrwert und potenziellen Missbrauch liegen bekanntlich nah beieinander. Im hochsensiblen Umfeld der Personalarbeit braucht es daher ein grundlegendes ethisch-moralisches Verständnis für den Umgang mit den Möglichkeiten neuer Technologien.

Ziel des Ethikbeirat HR-Tech ist es, allen Menschen und insbesondere Personalmanagerinnen und Personalmanagern, die Berührungspunkte mit digitalen Innovationen in der Personalarbeit haben, Orientierung für einen verantwortungsvollen Einsatz ebensolcher zu geben. Um dieses Ziel zu erreichen erarbeitet der Ethikbeirat in einem breiten und iterativen Diskurs ein gemeinsames ethisches Verständnis für den Umgang mit HR-Tech und befähigt Menschen und Organisationen in der Anwendung dieser Richtlinien in der Praxis.

MHK_portrait

Michael H. Kramarsch

Managing Partner hkp/// group

Unternehmen setzen verstärkt auf Künstliche Intelligenz und andere Zukunftstechnologien – auch im HR-Management. Doch einen Algorithmus beispielsweise für die Personalauswahl zu nutzen, erfordert andere ethische Fragestellungen als die Wegstreckenoptimierung im Navigationssystem. Dieser Aufgabe stellt sich der Ethikbeirat HR Tech.

EE_portrait

Dr. Elke Eller

Personalvorständin TUI AG

Neue Technologien bieten immenses Potenzial für das HR-Management. Um sie zielführend in den Dienst der Menschen in Unternehmen zu stellen, braucht es Leitplanken. Der Ethikbeirat HR Tech wird einen dafür handlungsleitenden Wertekompass nicht nur für Personaler erarbeiten.

Arbeitsweise des Ethikbeirat HR-Tech

Bevor wir über die praktischen Konsequenzen digitaler Technologien für die Personalarbeit nachdenken können, müssen wir diese Technologien erst einmal verstehen und uns von da aus weiter vorarbeiten. Es geht um mehrere Etappen. Deshalb hat der Ethikbeirat HR-Tech vier Handlungsfelder festgelegt, auf denen er aktiv ist. Die Felder gehen ineinander über, und die Erkenntnisse, die wir auf dem einen Feld gewinnen, helfen uns, die anderen Felder besser zu verstehen.

Worum geht es?
Zusammentragen und Systematisieren von Wissen über gegenwärtige und zukünftige HR-Tech Use Cases und die damit verbundenen Chancen und Risiken.

Wie gehen wir vor?

Wann?
Seit Dezember 2018

Worum geht es?
Entwicklung von Richtlinien für einen verantwortungsvollen Einsatz von HR-Tech mit Fokus auf KI-Lösungen.

Wie gehen wir vor?

  • Entwicklung der Richtlinien für HR-Tech in mehreren Workshops
  • Weiterentwicklung der Richtlinien auf Basis des öffentlichen Diskurses

Wann?
Seit Februar 2019

Worum geht es?
Transparente Kommunikation der Arbeit des Ethikbeirat HR-Tech an die Öffentlichkeit und Dialog mit allen interessierten Interessensgruppen.

Wie gehen wir vor?

  • Publikationen auf der Beiratswebsite
  • Öffentliche Konsultationsphase für den Entwurf der Richtlinien
  • Vorstellung auf relevanten Veranstaltungen

Wann?
Ab Juni 2019

Worum geht es?
Befähigung von Menschen und Organisationen in der Anwendung der Richtlinien in der Entwicklung und Nutzung von HR-Tech Lösungen.

Wie gehen wir vor?

  • Erarbeitung von Befähigungsmaßnahmen mit Anbietern und Nutzern
  • Angebot und Durchführung von Befähigungsmaßnahmen

Wann?
Ab Juli 2019

Technologiefelder

Der Ethikbeirat HR-Tech hat sechs Technologiefelder diskutiert, welche die Personalarbeit in den kommenden Jahren nachhaltig verändern werden. Die Begriffe Big Data, Analytics, Künstliche Intelligenz sind weder definitorisch klar noch treffscharf. Dennoch helfen sie uns, das Thema „digitale Lösungen für den HR-Bereich“ zu strukturieren und differenzierter zu betrachten. Hier folgt eine kurze Übersicht darüber, worum es jeweils geht.

Big Data

Analytics

Künstliche Intelligenz

Blockchain

Sharing Economy

Digitale Präsenz

Mitglieder des Ethikbeirat HR Tech

Thomas Belker

PRECIRE Technologies

Andreas Dittes

Talentwunder

Dr. Elke Eller

TUI Group

Gerhard Fehr

FehrAdvice & Partners

Prof. Dr. Björn Gaul

CMS Hasche Sigle

Prof. Dr. Christine Harbring

RWTH Aachen

Reiner Hoffmann

Deutscher Gewerkschaftsbund

Prof. Dr. Bernd Irlenbusch

Universität zu Köln

Anna Kaiser

Tandemploy

Prof. Dr. Martin Kersting

Universität Gießen

Frank Kohl-Boas

Zeit-Verlagsgruppe

Michael H. Kramarsch

hkp/// group

Torsten Schneider

HR Luther Rechtsanwaltsgesellschaft

Prof. Dr. Katharina Simbeck

HTW Berlin

Reiner Straub

Personalmagazin

Oliver Suchy

Deutscher Gewerkschaftsbund

Brigitte Zypries

Bundesverband Deutsche Startups

Richtlinien für den verantwortungsvollen Einsatz von KI in der Personalarbeit

Im Ethikbeirat HR-Tech haben wir uns mit der Frage befasst, welche Einsatzgebiete für KI-Lösungen sich im Umfeld des HR-Management abzeichnen und welche Rahmenbedingungen für die Entwicklung dieser KI-Lösungen, deren Einsatz und deren Nutzung in Organisationen gegeben sein sollen. Es ist wichtig voranzuschreiten, neue Lösungen auszuprobieren, zu evaluieren und die Personalarbeit damit besser zu machen. Dies hat in einer verantwortungsvollen Art und Weise zu geschehen. Die folgenden Richtlinien sind ein Entwurf, der in einem kollaborativen Prozess und unter Einbezug der Fachkompetenz und Erfahrung der Beiratsmitglieder entstanden ist. Mehr über die Hintergründe der Entstehung der Richtlinien und über die Arbeit des Ethikbeirat HR-Tech können Sie in diesem Dokument nachlesen.

Wir sind der festen Überzeugung, dass der durch die Richtlinien abgesteckte normative Rahmen nur Bestand haben kann, wenn er auf einem breiten Diskurs fußt. Deshalb laden wir Sie herzlich ein, mit uns in den Dialog zu treten. Egal aus welcher Perspektive Sie auf das Thema blicken – wir freuen uns auf Ihre Stellungnahme!

Vor der Einführung einer KI-Lösung muss die Zielsetzung für die Nutzung geklärt werden. In diesem Prozess sollen alle relevanten Interessensgruppen identifiziert und eingebunden werden.

KI-Anwendungen in Organisationen erfordern einen nachhaltigen, strategischen Planungsprozess. Ihr Zweck und Nutzen sowie mögliche Zielkonflikte sollen frühzeitig geklärt werden. Dass auch die betrieblichen Interessenvertreter*innen möglichst frühzeitig vor Einführung zum „Ob“, dem Ziel der Nutzung und der Durchführung einer KI-Lösung beteiligt werden – oder wo das nicht möglich ist, auch direkt die Beschäftigten – ist eine Selbstverständlichkeit. Transparente Beteiligungs- und Mitbestimmungsprozesse sind insbesondere bei der Nutzung von KI-Lösungen wichtig und stellen breite Akzeptanz sicher. Mit diesem Vorgehen soll bei der Einführung einer KI-Lösung auf partizipative Art und Weise eine Folgenabschätzung vorgenommen werden.

Wer KI-Lösungen anbietet oder nutzt, muss darauf achten, dass diese empirisch evaluiert sind und über eine theoretische Grundlage verfügen.

Anbieter von KI-Lösungen zielen darauf ab, mit ihren Lösungen die bestehende Praxis zu verbessern. Organisationen, die vorhaben eine KI-Lösung zu nutzen sollen daher den Anbieter auffordern, die Angemessenheit und Güte der KI-Lösung empirisch zu evaluieren und auf theoretischen Grundlagen zu basieren. Als Referenz, welche Informationen in welchen Umfang zu einer KI-Lösung vorliegen sollen, um ihre Güte beurteilen zu können, verweisen wir auf die Anforderungen an Verfahrenshinweise für messtheoretisch fundierte Fragebögen und Tests (DIN 33430, 2016, Anhänge A und B).

Kostenfreier Download unter: https://www.researchgate.net/publication/298215536_Checkliste_zur_DIN_33430

Wer KI-Lösungen einsetzt, muss sicherstellen, dass die Handlungsträgerschaft der Menschen bei wichtigen Personalentscheidungen nicht eingeschränkt wird.

Eine KI-Lösung kann als Arbeitsassistenz – zum Beispiel zur Informationsbeschaffung und Entscheidungsvorbereitung – eingesetzt werden. Auch eine Automatisierung von Entscheidungen ist grundsätzlich möglich und in der Arbeitswelt nichts Ungewöhnliches. Es muss jedoch sichergestellt werden, dass KI-Lösungen in Gesamtlösungen eingebunden sind, die letztverantwortlich von Menschen gesteuert werden. Das ungeprüfte Übernehmen von systemisch erstellten Entscheidungsvorschlägen stellt keine menschliche Entscheidung dar. Bei Entscheidungen, die eine Verarbeitung besonderer personenbezogener Daten (Art. 9, 10 und 22 DSGVO, vgl. auch Erwägungsgrund 71) erfordern oder Lebenswege von Menschen wesentlich beeinflussen (z.B. Beförderungen), muss die Handlungsträgerschaft des Menschen gewährleistet sein. Dies betrifft insbesondere die Begründung und Beendigung von Beschäftigungsverhältnissen, die Personalentwicklung sowie die Personaldiagnostik. Es ist im Einzelfall zu definieren, wie eine tatsächliche Entscheidung durch Menschen sichergestellt oder überprüft werden kann.

Wer KI-Lösungen in seiner Organisation nutzt, muss diese in ihrer Logik verstehen und erklären können.

Wer im Privaten Technologien einsetzt, muss diese nicht unbedingt verstehen. Es ist Privatsache, ob man sich damit beschäftigen will. Wenn eine Organisation KI-Lösungen nutzt, muss die Logik dieser KI-Lösung in ihrer Gesamtheit verstanden werden. Organisationen müssen sich die erforderlichen Kompetenzen zu eigen machen, um die zugrundeliegende Technologie, das Prozessmodell sowie die zur Anwendung kommende Entscheidungslogik und die Auswirkungen auf die Arbeitsprozesse verstehen und erklären zu können. Darüber hinaus müssen Organisationen sicherstellen, dass die Anwender*innen von KI-Lösungen hinreichend qualifiziert sind, um eine zweckmäßige Nutzung sicherzustellen.

Organisationen, die KI-Lösungen nutzen, sind für die Ergebnisse ihrer Nutzung verantwortlich.

Arbeitgeber tragen gegenüber ihren Mitarbeiter*innen eine besondere Fürsorgepflicht und stehen auch Bewerber*innen gegenüber in der Verantwortung. Die Verantwortung für den diskriminierungsfreien und die Persönlichkeit respektierenden Einsatz von KI kann deshalb nicht auf die Anbieter von KI-Lösungen übertragen werden. Organisationen, die Entscheidungen oder Entscheidungsunterstützung auf KI-Lösungen übertragen, sollen sich im Klaren darüber sein, wer für welche Prozesse und Entscheidungen die Verantwortung und Haftung übernimmt. Vor der Nutzung einer KI-Lösung soll geklärt werden, ob der Prozess rechtlich zulässig ist und ob der Einsatz der KI-Lösung mit Schranken belegt werden muss.

Wer personenbezogene Daten für KI-Lösungen nutzt, muss im Vorfeld definieren, für welche Zwecke diese verwendet werden und sicherstellen, dass diese Daten nur zweckdienlich erhoben, gespeichert und genutzt werden.

Organisationen haben eine besondere Verantwortung im Umgang mit personenbezogenen Daten, die in digitalisierten Organisationsprozessen in wachsendem Umfang entstehen. Diese Daten dürfen nicht für personenbezogene Auswertungen zweckentfremdet werden. Den rechtlichen Rahmen dafür bildet die DSGVO. Sie fordert sowohl das Prinzip der Zweckbindung als auch der Datenminimierung. Personenbezogene Daten, die für einen vorab definierten Zweck erhoben wurden, dürfen grundsätzlich nicht ohne erneute Einwilligung zu ihrer Nutzung für andere Zwecke verwendet werden. Ferner sollen nicht mehr Daten erhoben werden, als für den jeweiligen Zweck erforderlich. Organisationen können mit einer Pseudonymisierung und/oder Anonymisierung der Daten arbeiten, um Daten unter Wahrung des Datenschutzes verwenden zu können. Eine explorative Datenanalyse ist höchstens für Forschungszwecke, d.h. unter Ausschluss einer Verwendung der Ergebnisse für Personalentscheidungen jeglicher Art, möglich.

Vor bzw. beim Einsatz einer KI-Lösung müssen die davon betroffenen Menschen über ihren Einsatz, ihren Zweck, ihre Logik und die erhobenen und verwendeten Datenarten informiert werden.

Menschen müssen darüber informiert werden, dass sie mit einer KI-Lösung interagieren und/oder ihre personenbezogenen Daten von einer KI-Lösung verarbeitet werden. Die Information muss den Zweck und die Logik der KI-Lösung sowie eine vollständige Auflistung der verwendeten Datenarten beinhalten.

Für die Nutzung in KI-Lösungen dürfen keine Daten erhoben und verwendet werden, welche der willentlichen Steuerung der Betroffenen grundsätzlich entzogen sind.

Subjektqualität ist ein Pfeiler der Menschenwürde und Selbstbestimmung. Dieser Punkt ist wichtig, aber nicht leicht verständlich. Lassen Sie uns deshalb ein Beispiel verwenden: Ein Lügendetektor produziert grundsätzlich valide Ergebnisse. Trotzdem wird dieses Verfahren in Deutschland nicht eingesetzt. Warum? Der Lügendetektor misst Parameter wie bspw. die elektrische Leitfähigkeit der Haut. Dabei werden Daten erhoben, die Menschen willentlich weder zur Verfügung stellen noch beeinflussen können. Wir wären in dieser Hinsicht analysiertes Objekt und kein wahrnehmendes und handelndes Subjekt. KI-Lösungen, die Daten erheben oder verwenden, welche die Subjektqualität des Menschen nicht beachten, sind für das Personalmanagement in Organisationen grundsätzlich nicht einzusetzen.

Wer KI-Lösungen entwickelt oder nutzt, muss sicherstellen, dass die zugrundeliegenden Daten über eine hohe Qualität verfügen und systembedingte Diskriminierungen ausgeschlossen werden.

Personalverantwortliche handeln im Bewusstsein, dass datenbasierte und/oder automatisierte Entscheidungsprozesse nicht automatisch objektiv und fair sind. Historische Daten, die genutzt werden, um KI-Lösungen zu entwickeln und zu trainieren, sind von normativen Vorgaben zu unterscheiden. Bei personalpolitischen Entscheidungen spielen normative Vorgaben (z.B. Quoten) eine wichtige Rolle. Die Auswertung, wer es in der Vergangenheit in eine Führungsposition geschafft hat, ist nicht die Antwort darauf, wer es in Zukunft schaffen sollte. Deshalb müssen Anbieter und Nutzer von KI-Lösungen dafür Sorge tragen, dass systembedingte Diskriminierungen vermieden werden. Je nach Anwendungszweck sind dafür eine Information über Trainingsdaten und Entscheidungskriterien sowie die proaktive Prüfung von Daten und Systemen auf Diskriminierung notwendig.

Wer KI-Lösungen nach den vorliegenden Richtlinien einführt, soll transparent sicherstellen, dass die Richtlinien auch bei der betrieblichen Umsetzung und der Weiterentwicklung beachtet werden.

Die Nutzung einer KI-Lösung erfordert stetige Kontrolle. Nutzer von KI-Lösungen sind daher in der Pflicht, regelmäßig zu überprüfen, ob die Nutzung in Einklang mit den Richtlinien erfolgt und den festgelegten Zielsetzungen entspricht. Bei Abweichungen sind Anpassungen vorzunehmen. Wichtige Aspekte sind beispielsweise die Beurteilung der zweckmäßigen Nutzung einer KI-Lösung und die Auswirkungen auf die Arbeitsorganisation. Dies erfordert die Einrichtung geeigneter organisationsinterner Prozesse und Institutionen, wie zum Beispiel eine*n Digital-Verantwortliche*n, einen interdisziplinären KI-Beirat oder Digitalrat, sowie die Gewährleistung der Möglichkeit zur Kontaktaufnahme und Interventionsmöglichkeit mit geeigneten Ansprechpartner*innen in allen Fällen, in denen KI-Lösungen genutzt werden.

Videos

videostill
Impressionen vom Gründungstreffen
Am 13.12.2018 trafen sich die Gründungsmitglieder in Berlin
video_thumb_eller
Dr. Elke Eller
TUI AG
Mehr Zeit für
menschliche Interaktion
video_thumb_irlenbusch
Prof. Dr. Bernd Irlenbusch
Universität zu Köln
Die Zielfunktion zählt
video_thumb_kersting
Prof. Dr. Martin Kersting
Universität Gießen
Das Gute mitnehmen
und das Schlechte vermeiden
video_thumb_kohl-boas
Frank Kohl-Boas
Zeit-Verlagsgruppe
Nicht überall, wo KI
drauf steht ist KI drin
video_thumb_suchy
Oliver Suchy
DGB
Die Folgenabschätzung
immer wieder überprüfen
video_thumb_zypries
Brigitte Zypries
Bundesministerin a.D.
Am Ende entscheidet
der Mensch

Presse

Der Ethikbeirat HR-Tech in der Presse

Im Folgenden werden Beiträge gelistet, die konkreten Bezug zum Ethikbeirat HR-Tech haben:

Wenn Computer Bewerber auswählen (FAZ)
» Zum Artikel

Ethikbeirat HR Tech stellt KI-Richtlinien für HR vor (Haufe Online)
» Zum Artikel

Alles zum Ethikbeirat HR Tech (Saatkorn)
» Zum Artikel

Standards im Umgang mit künstlicher Intelligenz (Haufe Online)
» Zum Artikel

Das wird die Personaler 2019 beschäftigen – Dr. Elke Eller im Interview (Haufe Online)
» Zum Interview

Moderne Zeiten in Personalmanagement und Recruiting (Cloud Computing Insider)
» Zum Artikel

Künstliche Intelligenz im Personalwesen (Haufe Online)
» Zum Artikel

 

Relevante Veröffentlichungen
Im Folgenden werden ausgewählte Beiträge aus Online- und Printmedien zum Thema der Nutzung neuer Technologien im Personalmanagement-Kontext angeführt:
 

» Globale Ethik-Studie zur Lösung des Trolley-Problems (MIT Technology Review)

» Künstliche Intelligenz – Wettlauf ohne Ethik (Blätter für deutsche und internationale Politik)

» TechAtWork-Studie (PwC)

» Ist Österreichs AMS-Algorithmus diskriminierend? (Futurezone)

» Wie man Algorithmen durch Daten weniger diskriminierend machen kann (Tech Xplore)

» KI denkt unternehmerisch – und das ist beunruhigend (The Economist)

» Nein, Ethik kann man nicht programmieren (Die Zeit)

» Warum Technologie Tyrannei begünstigt (The Atlantic)

» Auch Algorithmen brauchen Manager (Harvard Business Review)

» Leitfaden für eine KI-Ethik (MIT Sloan Management Review)

» Zehn Kardinalfehler in der Personaldiagnostik (HR Performance)

» Philosophische Nachhilfe für Nerds (FAZ)

» Es gibt kein Big Data in HR (Harvard Business Review)

» Künstliche Intelligenz, Kunst und eine Urheberrechtsproblematik (SZ)

» Der Unterschied zwischen Machine Learning, Data Science, KI, Deep Learning und Statistik (Data Science Central)

Kontakt

Ihre Ansprechpartner für alle Fragen rund um den Ethikbeirat HR-Tech

 

Moritz Mihm
Leiter der Bundesgeschäftsstelle

Bundesverband der Personalmanager e.V.
Oberwallstraße 24
10117 Berlin

Tel +49 30 84 85 93 00
Fax +49 30 84 85 92 00

moritz.mihm@bpm.de
www.bpm.de

Thomas Müller
Partner, Head of Marketing & Communication

hkp Deutschland GmbH
Friedrich-Ebert-Anlage 35-37
60327 Frankfurt am Main

Tel +49 69 175 363 323
Fax +49 69 175 363 399
Mobile +49 176 100 88 237

thomas.mueller@hkp.com
www.hkp.com

Twitter-Wall