KI in der Arbeitswelt: Was kommt auf uns zu?

Künstliche Intelligenz umgibt uns heute überall – am PC, auf dem Handy, im Auto. Mittlerweile wird KI auch verstärkt am Arbeitsplatz eingesetzt. Wird der Arbeitsalltag dadurch erleichtert oder sind wir auf dem Weg in die Cyber-Dystopie? Eine Einschätzung.

Künstliche Intelligenz, KI. Ein Schlagwort, das viele benutzen, aber kaum jemand versteht. Das liegt unter anderem daran, dass es keine einheitliche Definition darüber gibt, was eine Künstliche Intelligenz ausmacht. Wie nähern wir uns dem Thema also ohne konkrete Idee darüber? Allgemein gesagt ist eine Künstliche Intelligenz ein Computerprogramm, das aufgrund spezifischer bereitgestellter Daten (menschliche) Aktionen, Reaktionen oder Entscheidungsverhalten automatisiert. Das kann eine Sprachassistenz-Software auf dem Handy oder im Smart Home sein, das kann das Navigations-System im Auto sein. Das kann aber auch jedwedes Computerspiel oder ein Chatbot sein, wie sie bereits in vielen Kundendiensten eingesetzt werden. Der Begriff KI ist extrem weitgreifend und wird heute eher auf das Prinzip Maschinelles Lernen oder Neuronale Netzwerke konkretisiert, um sich von ‚einfachen‘ Programmen abzugrenzen: Hier ‚lernt‘ die KI aus vorhandenen und immer neu hinzukommenden Daten, analysiert sie und leitet daraus weitere Handlungen für die Informationsverwendung ab.
Erst jüngst rückte durch immense Fortschritte bei textgenerierenden KIs das Thema wieder verstärkt ins Bewusstsein der Öffentlichkeit: ChatGPT ist ein Beispiel für sogenanntes Maschinelles Lernen oder Neuronale Netze, bei dem eine KI durch Zugriff auf eingegebene Daten über statistische Berechnung in der Lage ist, mit Menschen zu kommunizieren – und zwar auf einem Niveau, die einem Gespräch mit einem Menschen durchaus gleichkommen kann. Das geht so weit, dass ChatGPT mittlerweile auch Nachrichten schreiben oder wissenschaftliche Abhandlungen verfassen kann – allerdings nicht fehlerfrei und dazu auch noch völlig emotionslos; es spielt für das Programm prinzipiell keine Rolle, ob es Informationen zur Genforschung zusammenfasst oder eine Hetzrede gegen Transgender-Menschen schreiben soll, ob es eine Anleitung zum Haus- oder zum Bombenbau liefert.
Auch das Thema sogenannter Clickworker ist im Fall von Maschinellem Lernen ein Problem: Denn irgendjemand muss die KI ja mit Daten füttern: Das machen in der Regel unterbezahlte, von Unternehmen angeworbene Internetnutzer, die für schnelles, aber im Verhältnis zur Arbeit kleinstes Geld die KI-Systeme bespielen. Das alles kann zukünftig zu einem immer größer werdenden Problem werden – wenn nicht regulierend eingegriffen wird.  Die Software kann kostenlos beim Entwickler OpenAI getestet werden.

Gerade die soziale Frage von KIs spielt in einem weiteren Kontext eine entscheidende Rolle: Wie gehen wir mit KI in der Arbeitswelt um? Wie gestalten KIs bereits viele Arbeitsumgebungen und was erwartet uns in der Zukunft? Gegenwärtig sind interaktive KIs etwa im Bereich Kundenservice, Mitarbeiterbefragung und Human Resources im Einsatz. So setzt Siemens etwa einen Chatbot ein, um seine Steuerfachkräfte von einfachen Rechercheaufgaben zu befreien; die Mitarbeiter geben einfach eine Standardfrage zum Thema Steuer oder Zoll ein, und die KI antwortet. Bei IKEA oder Pepsi sind in asiatischen und nordamerikanischen Niederlassungen die KIs ‚Matilda‘ und ‚Vera‘ im Recruiting aktiv: Sie führen Bewerbungsgespräche mit Jobinteressenten und fassen das Ergebnis dann für die Personaler zusammen. Die Industrie verkauft gerade letztere Beispiele mit einer Befreiung vom ‚Bauchgefühl‘ und spricht von einem Professionalisierungstrend im Recruiting.
Aber ist das in diesem Kontext wirklich gut? Eine KI beherrscht unter anderem eines nicht: Empathie. Sie kann nicht abwägen, ob Bewerber*in XY menschlich ins Team passt. Aber auch abseits von Soft Skills sollte geregelt sein, was KIs dürfen und was nicht. Denn einige der intelligenten Systeme können über Gesichtserkennung Mimik bei Online-Interviews auslesen und somit Aussagen der Interessenten mit entsprechendem Daten-Training auf Wahrheitsgehalt überprüfen. Das kann potenziell das Recht von Jobinteressenten untergraben, bei unangemessenen Fragen lügen zu dürfen.
Sollten KI-Systeme im Recruiting zum Einsatz kommen, dürfte hier zukünftig wohl §95 Abs. 2 des Betriebsverfassungsgetzes wieder mehr in den Fokus rücken, der dem Betriebsrat Mitgestaltung bei Auswahlrichtlinien für Einstellung, Versetzung und dergleichen einräumt.

In der Arbeitsorganisation sind Unternehmen wie Workday auf dem Vormarsch. Mit Cloud-basierter Personalmanagement-Software wird hier, modular aufbaubar, Datenerfassung von Beschäftigten wie etwa Zeiterfassung und andere Leistungsdaten, Personalkostenplanung oder Finanzverwaltung ermöglicht. Das ist nach obiger Definition noch keine ‚echte‘, lernende KI, sondern ein sogenanntes algorithmisches Management-System. Workday lässt aber über KIs bereits Profile in Sozialen Netzwerken nach Trends im Arbeitsmarkt abscannen, um Daten für Marketing und Human Resources zu erhalten.
Die Sorge ist unter anderem, dass besonders innerhalb einer Unternehmensstruktur Datenschutzverletzungen geschehen beziehungsweise Vorgesetzte und Arbeitgeber Informationen über Beschäftigfte auslesen können, die sie im Grunde überhaupt nichts angehen. Workday wirbt zwar mit einer Einbindung betriebsrätlicher Strukturen, doch kann sich diese auch schnell ins Gegenteil verkehren: Was, wenn zukünftig implementierte KIs aus verfügbaren Personaldaten Kündigungs- und Weiterbeschäftigungsempfehlungen ableiten und diese auch gleich angepasst an das jeweilige Arbeitsrecht Betriebsrat und Unternehmensleitung vorlegen? Ist das Zeitersparnis oder dystopische Automatisierung eines der sensibelsten Bereiche im Arbeitsalltag, die nicht nur höchst persönlich ist, sondern auch das Prinzip von Arbeitsidentät massiv verändern könnte. Laut DSGVO muss in solchen Fällen immer ein Mensch das letzte Wort haben. Was aber, wenn KI-generierte Vorschläge total sinnig erscheinen? Oder schaut sich der Personaler denn die Azubi-Bewerbenden überhaupt noch an, die von der KI vorher aussortiert wurden? Was macht das mit der Chancengleichheit?
Frank Remers, Konzernbetriebsratsvorsitzender IBM Deutschland, bringt dieses Dilemma bei einer Podiumsdiskussion auf der re:publica 2023 auf den Punkt: „Eine KI Verantwortung tragen zu lassen, atomisiert Verantwortung. Dann trägt sie am Ende des Tages keiner mehr.“

Hier äußert unter anderem Oliver Suchy, DGB-Vorstandsmitglied und Verantwortlicher für digitale Arbeitswelten, neben den Hoffnungen auf Entlastung durch digitale Hilfe besonders aber auch Sorgen und Unkenntnis auf Seiten der Arbeitnehmenden wie auch auf Seiten der Unternehmer selbst: Beschäftigte hätten neben Ängsten wie Austauschbarkeit auch Bedenken hinsichtlich Überwachung und Kontrolle – und dem Verlust des individuellen Spielraums innerhalb ihrer Arbeitsprozesse. Unternehmer wiederum zeigten sich mit KI-Software oft überfordert oder führten diese trotz eigener Unkenntnis ein, was unter Gesichtspunkten von Change Impact Management zu Verzögerungen in Einrichtung und Akzeptanz von KI führen könne. Es sei also neben Transparenz besonders auch Kompetenz bei Beschäftigten wie Unternehmensleitung gefragt.

Auch in der allgemeinen Risikobewertung finden KI-Systeme Einsatz, die nicht immer neutral agieren: So stoppten 2020 niederländische Gerichte das von der dortigen Regierung eingesetzte SyRI-System, das aufgrund von personenbezogenen Daten Risikoprofile für Hunderttausende Bürger anlegte und ableiten sollte, inwieweit einzelne Personen zu Sozialversicherungs-, Arbeits- oder Steuerbetrug neigen könnten. Es erwies sich, dass hauptsächlich Daten aus sozial schwächeren Regionen erhoben und anlysiert wurden – SyRI agierte durch die eingespeisten Daten und vorgegebenen Suchparameter schlichtweg diskriminierend.

Für diese Belange braucht es Regularien, die entsprechende Sicherheit bei Fragen wie Datenschutz, Diskriminierung und Arbeitnehmerrechten bieten können. Die Europäische Kommission hat daher 2022 einen Vorschlag für ein Gesetz über Künstliche Intelligenz  (Artificial Intelligence Act, kurz AIA) eingebracht, das EU-weit regeln soll, was eine KI darf und was nicht. So sollen neben der Einführung verschiedener Risiko-Kategorien von KI-Systemen zum Beispiel subtile Verhaltensbeeinflussung unterbunden werden. Auch ein Sozialkreditsystem, wie es in China existiert, soll verboten werden. Als Kontrollmechanismus sollen behördliche Strukturen eingeführt werden, die dann auf nationaler Ebene Verstöße ahnden könnten.
Befürworter des AIA sehen einen weltweit erstmaligen Schritt zur nachhaltigen Kontrolle von Künstlicher Intelligenz, die besonders im Bereich des Arbeitslebens den Alltag von Menschen massiv beeinflussen wird. Allerdings müsse auch hier nachgebessert werden, besonders im Bereich potenzieller Diskriminierung: Hier müssten nicht nur die Systeme, sondern auch die Anwender mit in die Verantwortung genommen werden, da besonders eingespeiste Daten oft gesellschaftlichen Konventionen und Vorstellungen unterlägen, und diese nicht immer neutral seien. Kritik gibt es von KI-Unternehmen und anderen Branchen-Vertretern, denen die aktuellen Ausformulierungen zu breit gefächert sind und die einen Innovationsstau in Europa befürchten. Nach der aktuellen Gesetzes-Definition fiele jedwede Software bis hin zum einfachen Taschenrechner unter die geplante Regulierung, was die Anwendung von KI in Europa generell unmöglich mache.
Aktuell befindet sich der Gesetzes-Vorschlag noch im Entstehungsprozess, da unter anderem auch Datenschützer Bedenken äußern, etwa was eine potenzielle biometrische Erfassung in der Videoüberwachung anbelangt.

Laut Vanessa Barth, Funktionsbereichsleiterin Zielgruppenarbeit und Gleichstellung der IG Metall Frankfurt a.M., bleibt beim Thema KI in der Arbeitswelt aktuell noch die Frage der Produktivitätsgewinne bei den indirekten Bereichen, also etwa Zeiterfassung, Reisekostenabrechnung, Urlaubsplanung und Ähnliches. Durch mangelnde Umsetzung bei der Digitalisierung stellten solche Programme heutzutage oft mehr Hindernis als Erleichterung dar. Es existiere eine Diskrepanz zwischen technischer Kompetenz von zuständigen IT-Fachkräften im Verhältnis zu Fragen wie Diskriminierung und Personalfragen. Hier müsste enger zusammengearbeitet und Kompetenzen breiter ausgebaut werden. Von daher sei das Thema Beteiligung und Schulung, Transparenz und Mitsprache wichtiger denn je, wenn Arbeitnehmende nicht aus Überforderung durch manche Systemen schlichtweg kapitulieren sollten.

KI wird nicht mehr verschwinden. Das ist auch gar nicht notwendig; wenn sie sinnvoll eingesetzt wird, wird sie Arbeitsabläufe im Bestfall vereinfachen, anstatt sie einfach zu verdichten. Dazu ist aber noch viel Aufklärung und Schulung zu erledigen, vor allem, was Transparenz der Systeme und Mitgestaltungsmöglichkeiten der Betroffenen anbelangt. Das kann über ein EU-weites Gesetz regulierend unterstützt werden, ist aber nicht die alleinige Antwort. Besonders in den Betrieben sind Belegschaft, Betriebsräte und Gewerkschaften gefragt, ein genaues Auge – das am besten auch technisch geschult ist – auf Künstliche Intelligenz am Arbeitsplatz zu haben. Dann werden wir am Ende des Tages keine Maschinenstürmer brauchen.

Ein Wermutstropfen, der bislang völlig ungelöst bleibt, ist die Zukunft der sogenannten kreativen Berufe. In Bereichen, in denen mit Text- und Bildgenerierung gearbeitet wird, werden durch Künstliche Intelligenz erstellte Inhalte ein Problem darstellen. Das betrifft nicht nur Extrembeispiele wie Desinformationskampagnen und Social Bots, sondern den gesamten Bereich der freischaffenden Journalisten, Fotographen, Video- und andere Content Creator, die mit KI nun einen neuen Konkurrenten am Markt haben. Diesen in die eigene Arbeit zu implementieren, ohne obsolet zu werden, wird die Herausforderung für diese Berufe in den nächsten Jahren sein.

Das gigantische Thema konnte in diesem Artikel nur unzureichend, lückenhaft und mit vielen offen Fragen behandelt werden. Aus diesem Grund sind untenstehend noch weiterführende Links für Interessierte angehängt.

Lassen wir zum Schluss noch eine KI selbst zu Wort kommen:

 
Andreas:
Hallo ChatGPT.
 
 
ChatGPT:

Hallo! Wie kann ich Ihnen heute helfen?

 
Andreas:
Gib mir bitte eine Einschätzung zu Chancen und Risiken beim Einsatz von KI am Arbeitsplatz. Liste jeweils drei Chancen und drei Risiken auf.
 
 
ChatGPT:

Selbstverständlich, hier sind drei Chancen und drei Risiken beim Einsatz von Künstlicher Intelligenz (KI) am Arbeitsplatz:

Chancen:

  1. Automatisierung von Routineaufgaben: KI kann repetitive und zeitaufwändige Aufgaben automatisieren, was die Mitarbeiter von monotonen Arbeiten entlastet und ihnen ermöglicht, sich auf anspruchsvollere und kreativere Aufgaben zu konzentrieren.

  2. Effizienzsteigerung: KI kann die Effizienz in verschiedenen Geschäftsbereichen erhöhen, indem sie Daten analysiert, Muster erkennt und Empfehlungen gibt. Dies kann dazu beitragen, bessere Geschäftsentscheidungen zu treffen und Ressourcen effektiver einzusetzen.

  3. Personalisierte Unterstützung: KI-Systeme können personalisierte Empfehlungen und Unterstützung bieten, sei es im Kundenservice, bei der Weiterbildung der Mitarbeiter oder in der Personalverwaltung. Dies kann die Zufriedenheit der Mitarbeiter steigern und die Produktivität steigern.

Risiken:

  1. Arbeitsplatzverlust: Die Automatisierung von Aufgaben durch KI kann zu Arbeitsplatzverlusten führen, insbesondere in Berufen, die stark von Routinearbeiten abhängig sind. Dies kann zu sozialen und wirtschaftlichen Herausforderungen führen.

  2. Datenschutz und Sicherheitsrisiken: KI-Systeme verarbeiten große Mengen sensibler Daten. Der Missbrauch oder die Verletzung der Sicherheit dieser Daten kann schwerwiegende Konsequenzen haben, sowohl für Unternehmen als auch für die Privatsphäre der Mitarbeiter.

  3. Mangelnde Transparenz und Vorurteile: KI-Algorithmen können Vorurteile aufweisen und Entscheidungen treffen, die nicht transparent sind. Dies kann zu ungerechten Ergebnissen führen und die Akzeptanz von KI am Arbeitsplatz beeinträchtigen.

Es ist wichtig, diese Chancen und Risiken sorgfältig abzuwägen und angemessene Richtlinien und Maßnahmen zur Sicherung der Vorteile von KI zu ergreifen, während die potenziellen Risiken minimiert werden. Dies erfordert eine enge Zusammenarbeit zwischen Unternehmen, Regulierungsbehörden und Arbeitnehmern.

Andreas:
Danke. Verabschiede dich bitte von unseren Lesern.
 
 
ChatGPT:

Selbstverständlich! Auf Wiedersehen an unsere Leser. Wenn Sie in Zukunft weitere Fragen haben, stehe ich Ihnen gerne wieder zur Verfügung. Haben Sie einen großartigen Tag!

(Wortprotokoll Chat-GPT 3.5 vom 22. September 2023)

 
… und NEIN, auch in Zukunft werden die Inhalte dieser Website von Menschen geschrieben, nicht von ChatGPT oder anderen KIs. Versprochen!

Weitere Artikel

Was uns Dunkler Sauerstoff über uns selbst erzählt

Die Erkenntnis, das Sauerstoff in den tiefsten Abgründen des Meeres anorganisch entstehen könnte, beschäftigt aktuell die Wissenschaftswelt. Es verrät uns auch auf vielfältige Weise etwas

Geht das schief?

Europawahl, Landtagswahl, US-Wahl. Die westliche Welt erlebt 2024 eine politische Zäsur: Das erste Mal seit dem Zweiten Weltkrieg vollziehen sich innerhalb kürzester Zeit in wichtigen

TheBigWe

Helmut Klöpping 

Markstraße 10

26725 Emden

h.k.bbb-beratung@web.de

TheBigWe ist eine Initiative der BUS Emden GmbH