Dr. Frankenstein flieht aus dem Labor

Wir wollten einen Artikel schreiben über am Markt bereits verfügbare HR-Management-Tools, die sich Künstliche Intelligenz zunutze machen. Bei der Recherche haben wir erkannt: Auch wenn es solche Software-Instrumente schon gibt, momentan geht es für Unternehmen, HR-Abteilungen und die gesamte Gesellschaft um etwas ganz anderes.

Bis vor Kurzem war Geoffrey Hinton der breiten Öffentlichkeit unbekannt. Er forschte einige Jahrzehnte an Maschinenlernen und Künstlicher Intelligenz, bis dem gebürtigen Briten an der University of Toronto im Jahr 2012 Bahnbrechendes gelang: Gemeinsam mit Studenten entwickelte er ein System, das Objekte selbstständig analysieren und sich selbst beibringen konnte, neue Objekte richtig zu erkennen. Davor war unklar gewesen, ob das überhaupt jemals möglich sein würde.
Es dauerte nicht lange, da arbeitete Geoffrey Hinton für Google, in einem von ihm (und für ihn) eröffneten Labor in Toronto. Ganz vereinfacht ausgedrückt, versuchte er im Gegensatz zu fast allen anderen, die an der Entwicklung der KI arbeiteten, quasi das menschliche Gehirn nachzubauen, auch wenn die Menschheit noch nicht weiß, wie genau dieses eigentlich funktioniert. Aus heutiger Sicht betrachtet, war dieser Ansatz der richtige. Bei Google entwickelte er gemeinsam mit Studenten das System weiter, nahm größere Anpassungen und Veränderungen vor – und setzte damit in die Welt, was wir heute, im Jahr 2023, als Künstliche Intelligenz bezeichnen: ein selbstlernendes, neuronales Netzwerk. Es ist aber mehr als das. Es ist ein Wesen. Wie, ein Wesen? Ja, ein anorganisches Wesen, das sich selbst Dinge beibringen kann, sich selbst verbessern kann – und dies mit immer größerer Geschwindigkeit auch tut. Das Problem daran: Niemand, weder Geoffrey Hinton, noch Sam Altman, noch Ilya Sutskever, noch Greg Brockman, noch Eric Schmidt, noch Sundar Pichai, noch sonst irgendwer versteht, was genau da vor sich geht, welche Prozesse sich in diesem neuronalen Netzwerk abspielen. Warum dieses Wesen Dinge tun kann und tut, die nicht vorgesehen waren, Dinge, die ihm kein Mensch beigebracht hat. Das erschaffene Wesen hat begonnen, sich zu verselbstständigen. Und es sind sich eigentlich alle KI-Forscher einig: Es wird das in Zukunft in noch viel größerem Ausmaß tun.
Grund genug für Geoffrey Hinton, Anfang Mai 2023 auszusteigen. In mehreren alarmierenden Interviews vergleicht er sich selbst mit Openheimer, einem der Entwickler der Atombombe. Wenn nun dieser höchst angesehene KI-Experte (»the Godfather of AI«) plötzlich nicht nur seine Arbeit niederlegt, sondern auch vor der Weiterentwicklung warnt, dann sollten wir ­innehalten und ihm genau zuhören. Vor allem, weil es nicht nur er ist. Nahezu alle, die einen echten Einblick in die KI-Systeme haben, warnen vor deren unkontrollierter Entwicklung.
Sam Altman (CEO von OpenAI, dem Unternehmen, das GPT entwickelt hat, ChatGPT und viele weitere KI-Lösungen zur Verfügung stellt) ging Mitte Mai vor den US-Kongress mit einer eindeutigen Mission: Die Entwicklung von KI muss reguliert werden. Er selbst habe etwas Angst vor der KI.
Sundar Pichai (CEO von Alphabet und Google, das vor Kurzem sein KI-Tool »Bard« veröffentlicht hat) sagt, dass ihn die Gefahren »in der Nacht nicht schlafen lassen«. Die KI sei mit nichts vergleichbar, was die Menschheit bis jetzt erschaffen, entdeckt oder entwickelt habe – die Gefahren unabschätzbar, weil niemand verstehe, was in der »Black Box« passiere.
Eric Schmidt (früher Chef von Google, dann u. a. Vorsitzender der US-amerikanischen »National Security Commission on Artificial ­Intelligence«) sagt, dass KI ein existenzielles Risiko darstelle. Er vergleicht die KI in ihren Auswirkungen mit der Atombombe, weil sie »viele, viele, viele Menschen« auslöschen könnte. Wie bitte?

Vielleicht sollten wir als Gesellschaft auf all diese Herren hören? (Apropos Herren: Wo sind eigentlich die Frauen?) Das Problem daran: Selbst wenn Einigkeit besteht, die KI-Entwicklung zu regulieren – niemand weiß, wie das funktionieren soll. Da gibt es vernünftige Stimmen, die sagen, dass sich nur die Braven an die Regeln halten würden. Die weniger Braven (und die Bösen, wer immer das sein mag) würden einfach weiterentwickeln und dann hätten wir als Ergebnis überwiegend negative, schädliche KI-Tools. Dieses Argument ist schwer zu widerlegen. Und wenn trotzdem reguliert wird – wie genau? Die Zeit drängt jedenfalls enorm. Was die genannten Personen vor einem Jahr noch als für in 20 bis 30 Jahren möglich gehalten haben – heute sprechen sie von einem Zeitraum von in 3 bis 5 Jahren. In 3 Jahren! Also quasi morgen.

Bard, ein von Google entwickelter Chatbot, wurde im Mai weltweit in 180 Staaten veröffentlicht, allerdings vorerst nicht in der EU – weil Google Probleme mit den europäischen Datenschutzgesetzen vermeiden will. OpenAI mit seinem extrem populären ChatGPT hat angekündigt, sich aus der EU zurückzuziehen, sollte das EU-Parlament die KI-Richtlinien so beschließen, wie sie aktuell in einer Gesetzesvorlage definiert sind. Es stimmt: Die aktuellen KI-Tools vertragen sich mit dem Datenschutz überhaupt nicht. Was aber ist aus europäischer Sicht die Lösung? Menschen auf der ganzen Welt profitieren von KI-Lösungen, in Europa nicht? Studenten lernen den Umgang mit der Zukunft, aber nicht in Europa? Firmen vervielfachen ihre Produktivität, ausgenommen europäische Unternehmen?

Wir stehen als Gesellschaft vor riesengroßen Entscheidungen, ohne die dafür notwendigen Grundlagen und Informationen zu haben. Egal, wie entschieden wird: Es wird selbst bei guten Entscheidungen gewaltige Nachteile geben. Und: Wir wissen noch nicht einmal, wer das alles entscheiden wird. Momentan sind es amerikanische Unternehmen, die KI entwickeln – und die amerikanische Politik, die dieser Entwicklung Regeln vorgeben wird. Jedenfalls sind wir in Europa hoffnungslos hinten nach. Die erwähnte National Security Commission on Artificial Intelligence in den USA wurde 2018 gegründet, mittlerweile bereits durch etwas Neues ersetzt. In Österreich wird eine entsprechende Behörde nach den aktuellen Plänen 2024 installiert werden.
Wenn wir als Europa darüber besorgt sind – und das sollten wir sein –, dass China und die USA uns in Sachen KI davonlaufen und uns daher in sehr vielen Aspekten dominieren werden (Wirtschaft, Militär, Bildung, Forschung, Medizin), dann sollten wir europäische KI-Innovationen beschleunigen, anstatt durch Regulierungen verlangsamen.
Wenn wir befürchten, dass KI-Systeme Diskriminierung verstärken, Datenschutzverletzungen zum Alltag werden lassen und die Gesellschaft weiter spalten – und dafür gibt es viele Anzeichen –, dann sollten wir diese KI-Systeme streng regulieren.
Wenn wir die KI demokratisieren möchten – und das wäre doch eine hervorragende Idee –, dann sollten wir den Code allgemein zugänglich machen, also Open Source. Aber was würden dann z. B. Terroristen mit dem Code anstellen können?

KI ist wunderbar!

Künstliche Intelligenz kann auf mittelfristige oder lange Sicht im Optimalfall Unvorstellbares leisten, die Liste klingt wie utopische Träumerei: Früherkennung und Heilung fast aller Krankheiten, Ernährung aller Menschen, Lösung der Energie-/Umweltkrise, dauerhafter Weltfrieden und vieles mehr.
Dazu bedarf es einer KI, die heute als »Superintelligenz« bezeichnet wird. Ganz kurz zur Erklärung: Aktuell haben wir es mit »Artificial Intelligence«, also AI zu tun. Die nächste Stufe ist »Artificial General Intelligence«, das ist vereinfacht eine KI mit der Fähigkeit, alles zu lernen, was auch ein Mensch erlernen kann – und zwar selbstständig. Tools, die auf GPT von ­OpenAI aufbauen, weisen bereits heute (seit Februar 2023 nachgewiesen) Elemente einer AGI auf. Und nach AGI kommt dann die »Super Intelligence«, also eine künstliche Intelligenz, die jene des Menschen bei Weitem übertrifft. Sam Altman, Greg Brockman und Ilya Sutskever, die gemeinsam an der Entwicklung einer Superintelligenz arbeiten, schätzen, dass eine solche in den nächsten 10 Jahren realistisch ist. Und spätestens dann wird alles anders. Im Optimalfall wird alles besser. Oh, du wunderbare Zukunft!

KI-Systeme können schon jetzt oder in nächster Zukunft (innerhalb eines Jahres) selbstständig Websites gestalten und programmieren, Spiele erfinden, Bücher schreiben, neue Medikamente entwickeln, Prüfungen aller Art bestehen, Texte in jede beliebige Sprache übersetzen, E-Mails beantworten – und vieles davon in wenigen Sekunden.
Sie werden in Unternehmen die Arbeit von ganzen Abteilungen erledigen. Im HR-Bereich sind das die Personalverrechnung und große Teile des Recruitings und der Personalentwicklung. Vor allem werden sich HR-Abteilungen aber ab sofort ganz konkret mit den Auswirkungen der KI-Systeme auf die gesamte Belegschaft beschäftigen müssen. Sundar Pichai sagt, dass KI jedes Produkt in jeder Firma verändern wird.  Es werden irrsinnig viele Jobs wegfallen – oder genauer: von KI-Systemen übernommen werden. Es werden aber auch neue Jobs hinzukommen. Diese Umwälzungen müssen vom HR-Management begleitet werden. Um das bestmöglich zu gewährleisten, braucht es dringend KI-Know-how in jeder einzelnen HR-Abteilung.
Ein kurzer Einschub zum Thema Jobverlust: Viele Experten sagen, dass es zwar zum Wegfall einer großen Anzahl von Jobs kommen wird, dass dafür aber – so wie z. B. nach der industriellen Revolution oder nach dem Siegeszug des Internets – ähnlich viele, neue, mitunter sogar bessere Jobs entstehen werden.
Andere Experten bezeichnen diese Annahme als eine unzulässige Fortschreibung der Vergangenheit in die Zukunft. Sie sagen, dass KI mit nichts zu vergleichen sei, was die Menschheit bis jetzt erlebt hat. Und daher sei eine Prognose, wie viele neue Jobs dadurch entstehen werden, fast unmöglich. Fest stehe nur, dass ganz viele Jobs von KI übernommen werden, von bis zu 40 % in den USA ist die Rede. Diese Experten haben erhebliche Zweifel, ob die neu entstehenden Menschen-Jobs mehr als nur einen kleinen Bruchteil davon ausmachen werden.

Konkrete Tipps für HR-Abteilungen

Beschäftigen Sie sich mit KI! Belegen Sie einen der vielen Online-Kurse, auch das Gratis-Angebot ist beeindruckend (www.deeplearning.ai,
ki-campus.org, www.elementsofai.at). Wenn Sie es lieber in Präsenz und HR-spezifisch haben, gibt es für Sie auch schon Angebote, selbstverständlich nicht kostenlos. Das WIFI bietet z. B. einen Kurs an (Kursnummer 11027 auf noe.wifi.at). Diese Kurse sind von uns nicht getestet, wir können also keine Aussage über die Qualität der genannten Ausbildungen machen.
Finden Sie mindestens eine Person, die für KI verantwortlich ist! Stellen Sie diese Person von sonstigen Aufgaben weitestgehend frei. Diese Person kann dann auch den Einsatz von am Markt angebotenen KI-Tools entwickeln/begleiten, den Markt beobachten, Instrumente testen usw.
Werden Sie Partner der Geschäftsführung, wenn es um den Einsatz von KI geht!
Schauen Sie sich die Möglichkeiten an, die auf Basis von GPT bereits heute bereitstehen – abseits von ChatGPT! Werfen Sie z. B. einen Blick auf das Azure-Netzwerk von Microsoft. Sie werden aus dem Staunen nicht herauskommen, was allein im Mai an neuen Tools hinzugekommen ist. Sehen Sie sich auch AutoGPT an, es lässt erahnen, was schon bald möglich sein wird.
Beschäftigen Sie sich mit ans Unternehmen angepassten Chatbots! Mit eigenen Daten gefütterten Chatbots gehört die unmittelbare Zukunft – im Kundenkontakt, im Onboarding, im internen Wissensmanagement. Heute wollen wir als Kunden mit Menschen reden – schon bald werden wir Chatbots bevorzugen. Weil sie schneller, freundlicher, kompetenter sind und uns die besseren Antworten liefern. Lernen Sie, Chatbots im HR einzusetzen!
Die Zukunft gehört Systemen, die sich Künstliche Intelligenz zunutze machen. Daran besteht gar kein Zweifel. Wer solche Systeme nicht einsetzt, wird am Markt nicht bestehen können. Das gilt auch für das HR-Management.

Dieser Artikel wurde zu 100 % von einem Menschen recherchiert und geschrieben. Das ist heute ein positives Qualitätsmerkmal – und morgen vielleicht schon ein Grund, ihn erst gar nicht zu lesen.

Schreiben Sie einen Kommentar!


*

KI