Gerade die soziale Frage von KIs spielt in einem weiteren Kontext eine entscheidende Rolle: Wie gehen wir mit KI in der Arbeitswelt um? Wie gestalten KIs bereits viele Arbeitsumgebungen und was erwartet uns in der Zukunft? Gegenwärtig sind interaktive KIs etwa im Bereich Kundenservice, Mitarbeiterbefragung und Human Resources im Einsatz. So setzt Siemens etwa einen Chatbot ein, um seine Steuerfachkräfte von einfachen Rechercheaufgaben zu befreien; die Mitarbeiter geben einfach eine Standardfrage zum Thema Steuer oder Zoll ein, und die KI antwortet. Bei IKEA oder Pepsi sind in asiatischen und nordamerikanischen Niederlassungen die KIs ‚Matilda‘ und ‚Vera‘ im Recruiting aktiv: Sie führen Bewerbungsgespräche mit Jobinteressenten und fassen das Ergebnis dann für die Personaler zusammen. Die Industrie verkauft gerade letztere Beispiele mit einer Befreiung vom ‚Bauchgefühl‘ und spricht von einem Professionalisierungstrend im Recruiting.
Aber ist das in diesem Kontext wirklich gut? Eine KI beherrscht unter anderem eines nicht: Empathie. Sie kann nicht abwägen, ob Bewerber*in XY menschlich ins Team passt. Aber auch abseits von Soft Skills sollte geregelt sein, was KIs dürfen und was nicht. Denn einige der intelligenten Systeme können über Gesichtserkennung Mimik bei Online-Interviews auslesen und somit Aussagen der Interessenten mit entsprechendem Daten-Training auf Wahrheitsgehalt überprüfen. Das kann potenziell das Recht von Jobinteressenten untergraben, bei unangemessenen Fragen lügen zu dürfen.
Sollten KI-Systeme im Recruiting zum Einsatz kommen, dürfte hier zukünftig wohl §95 Abs. 2 des Betriebsverfassungsgetzes wieder mehr in den Fokus rücken, der dem Betriebsrat Mitgestaltung bei Auswahlrichtlinien für Einstellung, Versetzung und dergleichen einräumt.
In der Arbeitsorganisation sind Unternehmen wie Workday auf dem Vormarsch. Mit Cloud-basierter Personalmanagement-Software wird hier, modular aufbaubar, Datenerfassung von Beschäftigten wie etwa Zeiterfassung und andere Leistungsdaten, Personalkostenplanung oder Finanzverwaltung ermöglicht. Das ist nach obiger Definition noch keine ‚echte‘, lernende KI, sondern ein sogenanntes algorithmisches Management-System. Workday lässt aber über KIs bereits Profile in Sozialen Netzwerken nach Trends im Arbeitsmarkt abscannen, um Daten für Marketing und Human Resources zu erhalten.
Die Sorge ist unter anderem, dass besonders innerhalb einer Unternehmensstruktur Datenschutzverletzungen geschehen beziehungsweise Vorgesetzte und Arbeitgeber Informationen über Beschäftigfte auslesen können, die sie im Grunde überhaupt nichts angehen. Workday wirbt zwar mit einer Einbindung betriebsrätlicher Strukturen, doch kann sich diese auch schnell ins Gegenteil verkehren: Was, wenn zukünftig implementierte KIs aus verfügbaren Personaldaten Kündigungs- und Weiterbeschäftigungsempfehlungen ableiten und diese auch gleich angepasst an das jeweilige Arbeitsrecht Betriebsrat und Unternehmensleitung vorlegen? Ist das Zeitersparnis oder dystopische Automatisierung eines der sensibelsten Bereiche im Arbeitsalltag, die nicht nur höchst persönlich ist, sondern auch das Prinzip von Arbeitsidentät massiv verändern könnte. Laut DSGVO muss in solchen Fällen immer ein Mensch das letzte Wort haben. Was aber, wenn KI-generierte Vorschläge total sinnig erscheinen? Oder schaut sich der Personaler denn die Azubi-Bewerbenden überhaupt noch an, die von der KI vorher aussortiert wurden? Was macht das mit der Chancengleichheit?
Frank Remers, Konzernbetriebsratsvorsitzender IBM Deutschland, bringt dieses Dilemma bei einer Podiumsdiskussion auf der re:publica 2023 auf den Punkt: „Eine KI Verantwortung tragen zu lassen, atomisiert Verantwortung. Dann trägt sie am Ende des Tages keiner mehr.“
Hier äußert unter anderem Oliver Suchy, DGB-Vorstandsmitglied und Verantwortlicher für digitale Arbeitswelten, neben den Hoffnungen auf Entlastung durch digitale Hilfe besonders aber auch Sorgen und Unkenntnis auf Seiten der Arbeitnehmenden wie auch auf Seiten der Unternehmer selbst: Beschäftigte hätten neben Ängsten wie Austauschbarkeit auch Bedenken hinsichtlich Überwachung und Kontrolle – und dem Verlust des individuellen Spielraums innerhalb ihrer Arbeitsprozesse. Unternehmer wiederum zeigten sich mit KI-Software oft überfordert oder führten diese trotz eigener Unkenntnis ein, was unter Gesichtspunkten von Change Impact Management zu Verzögerungen in Einrichtung und Akzeptanz von KI führen könne. Es sei also neben Transparenz besonders auch Kompetenz bei Beschäftigten wie Unternehmensleitung gefragt.
Auch in der allgemeinen Risikobewertung finden KI-Systeme Einsatz, die nicht immer neutral agieren: So stoppten 2020 niederländische Gerichte das von der dortigen Regierung eingesetzte SyRI-System, das aufgrund von personenbezogenen Daten Risikoprofile für Hunderttausende Bürger anlegte und ableiten sollte, inwieweit einzelne Personen zu Sozialversicherungs-, Arbeits- oder Steuerbetrug neigen könnten. Es erwies sich, dass hauptsächlich Daten aus sozial schwächeren Regionen erhoben und anlysiert wurden – SyRI agierte durch die eingespeisten Daten und vorgegebenen Suchparameter schlichtweg diskriminierend.
Für diese Belange braucht es Regularien, die entsprechende Sicherheit bei Fragen wie Datenschutz, Diskriminierung und Arbeitnehmerrechten bieten können. Die Europäische Kommission hat daher 2022 einen Vorschlag für ein Gesetz über Künstliche Intelligenz (Artificial Intelligence Act, kurz AIA) eingebracht, das EU-weit regeln soll, was eine KI darf und was nicht. So sollen neben der Einführung verschiedener Risiko-Kategorien von KI-Systemen zum Beispiel subtile Verhaltensbeeinflussung unterbunden werden. Auch ein Sozialkreditsystem, wie es in China existiert, soll verboten werden. Als Kontrollmechanismus sollen behördliche Strukturen eingeführt werden, die dann auf nationaler Ebene Verstöße ahnden könnten.
Befürworter des AIA sehen einen weltweit erstmaligen Schritt zur nachhaltigen Kontrolle von Künstlicher Intelligenz, die besonders im Bereich des Arbeitslebens den Alltag von Menschen massiv beeinflussen wird. Allerdings müsse auch hier nachgebessert werden, besonders im Bereich potenzieller Diskriminierung: Hier müssten nicht nur die Systeme, sondern auch die Anwender mit in die Verantwortung genommen werden, da besonders eingespeiste Daten oft gesellschaftlichen Konventionen und Vorstellungen unterlägen, und diese nicht immer neutral seien. Kritik gibt es von KI-Unternehmen und anderen Branchen-Vertretern, denen die aktuellen Ausformulierungen zu breit gefächert sind und die einen Innovationsstau in Europa befürchten. Nach der aktuellen Gesetzes-Definition fiele jedwede Software bis hin zum einfachen Taschenrechner unter die geplante Regulierung, was die Anwendung von KI in Europa generell unmöglich mache.
Aktuell befindet sich der Gesetzes-Vorschlag noch im Entstehungsprozess, da unter anderem auch Datenschützer Bedenken äußern, etwa was eine potenzielle biometrische Erfassung in der Videoüberwachung anbelangt.