Macht KI uns die Jobs streitig?

Macht KI uns die Jobs streitig?

Die Befürchtung wächst, dass eine grosse Anzahl an Arbeitsplätzen LLMs zum Opfer fallen wird. Carl Frey hält diese Befürchtungen für übertrieben.

Egal ob Filmproduzent in Hollywood oder Lkw-Fahrer – künstliche Intelligenz bereitet vielen Menschen Sorge. Angesichts des rasanten technologischen Fortschritts wächst das Unbehagen über die Auswirkungen der generativen KI auf unsere Arbeit, das soziale Gefüge und die Welt im Allgemeinen. Wird es überhaupt noch Aufgaben geben, die nicht von Maschinen erledigt werden? 

In den letzten zehn Jahren haben sich meine Mitarbeiter und ich intensiv mit den Auswirkungen der KI beschäftigt. Vor einem Jahrzehnt habe ich in einem mit Michael Osborne verfassten Beitrag aufgezeigt, dass schätzungsweise fast 47 Prozent der Arbeitsplätze in den USA theoretisch automatisiert werden könnten, da KI und mobile Robotik das Spektrum der auf den Computer übertragbaren Aufgaben vergrössern. 

Unseren Vorhersagen lag die Überzeugung zugrunde, dass der Mensch ungeachtet des technischen Fortschritts in drei zentralen Bereichen weiterhin die Oberhand behalten würde: Kreativität, komplexe soziale Interaktionen und Umgang mit unstrukturierten Situationen, z. B. im eigenen Zuhause.

Dennoch muss ich zugeben, dass sich auch in diesen Bereichen sehr viel getan hat. Large Language Models (LLMs) wie GPT-4 können mittlerweile auf unzählige Prompts menschenähnliche Textreaktionen erzeugen. Im Zeitalter der generativen KI schafft es die Maschine sogar, kleine Liebesbotschaften zu verfassen. 

Doch sind die Unzulänglichkeiten bei der Automatisierung, wie wir sie vor zehn Jahren festgestellt haben, noch immer nicht behoben. Wenn GPT-4 zum Beispiel Liebesbriefe für Sie schreibt, dann wird die persönliche Verabredung umso wichtiger. Die Krux an der Sache ist nämlich, dass in die sozialen Interaktionen immer mehr Algorithmen hineinspielen, daher nimmt auch die Bedeutung persönlicher Interaktionen, die von der Maschine (noch) nicht imitiert werden können, zu. 

Und dass die KI einen Brief mit Shakespeares Eloquenz schreiben kann, ist nur möglich, weil sie mit den Werken von Shakespeare trainiert wurde. Grundsätzlich glänzt KI bei Aufgaben, die durch explizite Daten und Ziele definiert sind, wie zum Beispiel die Optimierung von Spielergebnissen oder die Nachahmung von Shakespeare-Prosa. Doch welchen Massstab sollte man anlegen, wenn es darum geht, originale Inhalte zu schaffen, anstatt alte Ideen zu kopieren? Vielleicht die menschliche Kreativität? 

Darüber hinaus können viele Aufgabenbereiche nicht automatisiert werden, wie unser Beitrag aus dem Jahr 2013 erklärt. Generative KI – eine Teilmenge der weitreichenden KI-Landschaft – funktioniert nicht unbedingt als Automatisierungstool. Sie erfordert menschlichen Input als Impulsgeber und für die anschliessende Verfeinerung, Überprüfung der Fakten und Bearbeitung der Ergebnisse. 

Schliesslich spiegelt sich in der Qualität der Inhalte der generativen KI auch die Qualität der Trainingsdaten wider. Wie heisst es so schön: Geht Unsinn rein, kommt Unsinn raus. In der Regel basieren diese Algorithmen auf riesigen Datensätzen, die oft weite Teile des Internets umfassen, und nicht auf sorgfältig von Experten zusammengestellten Datenbeständen. Daher neigen LLMs dazu, Texte zu verfassen, deren Inhalt durchschnittlich ist – und alles andere als aussergewöhnlich. Wie von Michael und mir kürzlich in einem Artikel in The Economist erläutert, ist das Prinzip ganz einfach: Durchschnittliche Daten führen zu durchschnittlichen Ergebnissen. 

KI braucht den Mensch

Was bedeutet das also für die Zukunft der Beschäftigung? Zunächst einmal erfordert die aktuelle KI-Welle konsequente menschliche Aufsicht. Interessanterweise haben diejenigen mit weniger spezialisierten Fähigkeiten vielleicht einen Vorteil, da sie nun Inhalte erstellen können, die diesem „durchschnittlichen“ Standard entsprechen. 

Die zentrale Frage ist natürlich, ob der künftige Fortschritt dies bald ändern und eine Automatisierung auch in kreativen und sozialen Bereichen ermöglichen könnte? Ohne wirkliche Innovation erscheint das zweifelhaft. Erstens machen die Daten, die die LLMs bereits konsumiert haben, vermutlich einen erheblichen Teil des Internets aus. Daher herrscht Skepsis darüber, ob das Spektrum der Trainingsdaten in den nächsten Jahren überhaupt hinreichend erweitert werden kann. Darüber hinaus könnte die Verbreitung von minderwertigen KI-Inhalten die Qualität des Internets insgesamt beeinträchtigen und es damit zu einer unzuverlässigeren Trainingsquelle machen. 

Zweitens: Auch wenn die Technologiewelt weiterhin an das durch das Mooresche Gesetz vorhergesagte stetige Wachstum glaubt, wonach sich die Anzahl der Transistoren auf einem Chip etwa alle zwei Jahre verdoppelt, besteht zunehmend Konsens darüber, dass dieses Tempo aufgrund inhärenter physikalischer Grenzen um 2025 herum ein Plateau erreichen könnte. 

Drittens wurde angenommen, dass die Energiekosten für die Entwicklung von GPT-4 einen beträchtlichen Teil der Trainingskosten von 100 Mio. US-Dollar ausmachen – und das war vor dem Anstieg der Energiepreise. Aufgrund der akuten Problematik des Klimawandels steht die Nachhaltigkeit solcher Praktiken auf dem Prüfstand. 

Was benötigt wird, ist eine KI, die mit genaueren, fachkundig zusammengestellten Datenbeständen angelernt werden kann, kurzum, dass Qualität vor Quantität gestellt wird. Eine Prognose zu treffen, ob und wann es einen solchen Durchbruch geben wird, ist schwer. Ein konkreter Schritt besteht darin, ein Umfeld zu schaffen, das dateneffiziente Innovationen fördert. 

Ordnen wir dies historisch ein: Zu Beginn des 20. Jahrhunderts gab es einen regelrechten Wettlauf zwischen Elektrofahrzeugen und dem Verbrennungsmotor um die Vorherrschaft im aufstrebenden Automobilsektor. Zunächst schien es, als würden sie sich ein Kopf-an-Kopf-Rennen liefern, doch die Entdeckung riesiger Erdöl-Vorkommen gab den Ausschlag zugunsten des Verbrenners. Hätten wir in dieser Zeit eine Mineralölsteuer eingeführt, wäre die Entwicklung möglicherweise zugunsten von Elektrofahrzeugen verlaufen, wodurch sich unser CO2-Fussabdruck erheblich verringert hätte. Ebenso könnte die Einführung einer Datensteuer ein Anreiz dafür sein, KI-Prozesse im Hinblick auf den Datenverbrauch zu verschlanken. 

Wie von mir in früheren Beiträgen erörtert, werden viele Arbeitsplätze mit der Zeit automatisiert werden. Doch daran ist nicht zwangsläufig die aktuelle Generation generativer KI schuld. Solange es keine echten Innovationen gibt, rechne ich damit, dass die in unserer Studie aus dem Jahr 2013 identifizierten Herausforderungen fortbestehen und das Ausmass der Automatisierung in den kommenden Jahren begrenzen werden. 

Please confirm your profile
Please confirm your profile to continue
Confirm your selection
By clicking on “Continue”, you acknowledge that you will be redirected to the local website you selected for services available in your region. Please consult the legal notice for detailed local legal requirements applicable to your country. Or you may pursue your current visit by clicking on the “Cancel” button.

Willkommen bei Pictet

Sie befinden sich auf der folgenden Länderseite: {{CountryName}}. Möchten Sie die Länderseite wechseln?