Kategorien
Positionen

Künstliche Intelligenz: Stiglitz gegen Andreessen

Dieser Artikel stellt zwei aktuelle und gegensätzliche Positionen zur Künstlichen Intelligenz (KI) und deren Folgen für die Wirtschaft, Arbeit und Gesellschaft vor:

(1) Die Position von Joseph Stiglitz, ein renommierter Ökonom und Nobelpreisträger, der vor der Gefahr der wirtschaftlichen Ungleichheit durch Künstliche Intelligenz warnt.

(2) Und die Position von Marc Andreessen, einem bekannten Investor, Unternehmer und Informatiker (Netscape Browser) sowie Mit-Gründer der Risikokapitalgesellschaft Andreessen Horowitz, der meint, dass Künstliche Intelligenz die Welt retten wird.

Anschließend ziehe ich ein Fazit zu beiden Positionen, gehen auf den Wert unterschiedlicher Positionen und des Diskurses ein; und ich finde auch eine Gemeinsamkeit zwischen Stiglitz und Andreessen. Mit der Aufforderung zum Handeln, um die Chancen von Künstlicher Intelligenz zu nutzen, und dem Beispiel des Solinger IT-Unternehmers Mirko Novakovic, beende ich meinen Artikel.

Im Anhang finden sich ein noch Hinweis sowie Quellen und Links zu weiterführenden Informationen, Videos und Inhalten zu Joseph Stiglitz, Marc Andreessen, Mirko Novakovic sowie zu Psychologie und Wirtschaft.

Joseph Stiglitz: Die Ungleichheit wird durch Künstliche Intelligenz zunehmen

In einem Interview vom 01. August 2023 stellt sich der bekannte Wirtschaftswissenschaftler Joseph Stiglitz den Fragen des Magazins Scientific American zur Situation und Zukunft von Künstlicher Intelligenz hinsichtlich des Arbeitsmarktes.

Wie der Titel des Gesprächs mit Sophie Bushwick »Unregulated AI Will Worsen Inequality, Warns Nobel-Winning Economist Joseph Stiglitz« nahelegt, plädiert der Professor an der Columbia Universität und Chef-Ökonom der Denkfabrik Roosevelt Institute für eine politische Regulierung von Künstlicher Intelligenz – inbesondere da ohne diese sich seiner Meinung nach die wirtschaftliche Ungleichheit in den USA vergrößere.

Führt somit (unregulierte) Künstliche Intelligenz wie ChatGPT zum Verlust tausender Arbeitsplätze oder sogar zur Automatisierung von Hunderten Millionen von Jobs, wie einige Berichte und Prognosen meinen? [Quellen: siehe Links im Anhang]

Und ist es so, wie Stiglitz, der 2001 zusammen mit zwei anderen Forschern den Nobelpreis für Wirtschaftswissenschaften erhalten hat, im Interview sagt, dass »Unfettered capitalism, unfettered innovation, does not lead to the general well-being of our society«? [Anmerkung: unfettered: uneingeschränkt, frei, entfesselt.]

Die Einführung zum Interview startet mit den aktuellen und ersten Demonstrationen der Autoren und Schauspieler aus Hollywood seit den 1960er Jahren, die u.a. durch die Generative Künstliche Intelligenz wie ChatGPT für Texte oder KI für bewegte Bilder und Sprache ausgelöst wurden. Genauer: Durch die verständliche Furcht der Demonstranten, dass die KI ihre Arbeit übernehmen wird.

Die erste Frage an Stiglitz bezieht sich genau auf diesen Trend und z.B. den Einstellungsstopp von IBM. Nach ihm sei jedoch unklar, wie groß das Ausmaß des Jobverlustes sei und er hebt auch hervor, dass es viel KI-Mensch-Interaktionen geben werde: »[…] people will use AI as a productivity-enhancing tool.«

Interessant: Der Ökonom testete die Qualität der Antworten von ChatGPT mit eigenen Trainingsdaten, wie wir im Interview lesen, und berichtet dort über seine Ergebnisse.

Weitere der insgesamt acht Interviewfragen an Stiglitz des Scientific American beziehen sich auf seine Beurteilung der Netto-Summe von Jobverlust vs. Jobgewinn durch KI, von menschlichen Arbeitserzeugnisse als Premium-Produkt, der wirtschaftliche Ungleichheit, von möglichen Lösungen für die reduzierte Nachfrage nach Büroarbeit (kürzeren Arbeitszeiten, 4-Tage-Woche) sowie Anreizen hierfür, von historischen Parallelen zur KI-Revolution und seinem Gefühl der Situation (optimistisch oder pessimistisch).

Am Ende des Interviews sieht er die Politik am Zuge: »Will we be doing the right thing in our policy space? And I think that’s much more problematic.«

© 2023 Stefan Klemens

Kategorien
Interview

ComputerBase: Interview mit Antonio Krüger vom DFKI

Interview: Warum KI nicht die Menschheit auslöscht und wieso Open Source hilft

Lieber Gast!

“Bei der künstlichen Intelligenz existiert schon immer ein Lager von Wissenschaftlern, das völlig überzeugt davon war, dass es – auch in absehbarer Zeit – möglich sein wird, eine starke KI tatsächlich zu entwickeln. Das bedeutet: Eine KI mit eigenen Zielen, mit dem eigenen Bewusstsein, im Prinzip also mit einem künstlichen Geist. Diese Art von Wissenschaftlern, die jetzt auch warnen, sind in der Minderzahl. Vielleicht 5 bis 10 Prozent der KI-Wissenschaftscommunity fallen in dieses Lager.”

Dies und mehr sagt Prof. Antonio Krüger, Geschäftsführer des Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) und Professor für Informatik, im Interview mit Andreas Frischholz* von ComputerBase, das anlässlich des bekannten offenen Briefes des Center of AI Safety zu den Risiken von Künstlicher Intelligenz stattfand.

Ich fand es heute bei meiner derzeitigen Recherche nach Künstlicher Intelligenz (KI) und Human Resource Management (HRM). [Vernetzen = Ergebnisse]

Seiner Schätzung nach sind somit auf der anderen Seite 9 von 10 Experten für Künstliche Intelligenz, also die deutliche Mehrheit, anderer Meinung: Nämlich, dass es noch sehr lange dauert bzw. überhaupt möglich ist, dass Silizium, Mathematik und Software Bewusstsein entwickeln.

Das Fazit von Antonio Krüger am Ende des Interviews:

“Wenn Sie selbst vor Ihren Visionen warnen, erheben Sie sich auf ein Podest. Es ist wie bei Nostradamus. Die Weltuntergangspropheten sind die, die Aufmerksamkeit erhalten und am Ende sagen können: „Ich wusste es vorher!“ Von daher denke ich, dass in diesen Briefen eine Portion Psychologie, eine Portion Aufmerksamkeitsbedürfnis und auch eine Portion Geld stecken.”

Das ganze Interview gibt es hier: https://www.computerbase.de/2023-06/interview-ki-menschheit-open-source/

Viel Freude beim Lesen!

Herzliche Grüße, Stefan Klemens

PS 1: Lust auf einen Austausch zu People Analytics, Digital Assessment oder Künstliche Intelligenz im HRM? Dann vernetzen, Nachricht schreiben und / oder Termin für ein Online-Meeting vereinbaren. Oder klassisch: Telefonieren.

PS 2: Buchtipp zu Ralf Otte (2023): Künstlicher Intelligenz

Und: Ihnen/Dir gefällt meine Arbeit und meine Inhalte, die ich regelmäßig teile? Dann freue ich mich ebenfalls über eine Nachricht!


*Andreas Frischholz ist freier Redakteur bei ComputerBase sowie hauptberuflich Referent für Presse- und Öffentlichkeitsarbeit bei Stadtmarketing Marburg.

Kategorien
Audiotipp

Podcast: ChatGPT ist besser geworden! Und besteht das bayerische Abitur

Lieber Gast!

ChatGPT ist besser geworden! Und besteht das bayerische Abitur!

Am 21. Juli 2023 hatte ich in diesem Newsblog-Artikel die Ergebnisse eines Forschungsberichts zusammen mit Kritik zu dieser Studie vorgestellt, der zeigen soll, dass die Leistung von ChatGPT abgenommen hat.

Durch weitere Recherchen für einen neuen, längern Newsblog-Artikel zu “KI-Chatbots, ChatGPT und alternative Modelle” (Vernetzen = Publikation erfahren) bin ich heute auf folgenden spannenden Inhalt gestoßen (den einige sicher schon kennen, doch wenn nicht …):

Im dieser Folge des Tagesschau-Podcasts 11KM “KI: Zwischen Abi und Apokalypse” vom 06.06.2023 berichtet der Autor Christian Schiffer im Gespräch mit Victoria Michalczak, ob die neue Version GPT-4 das bayerische Abitur nun besteht – Anknüpfend an seinen Beitrag von Anfang Februar 2023, wo die Version GPT-3.5 in den Fächern Deutsch, Mathematik und Informatik noch durch die Prüfungen fiel.

Spoiler: Der Chatbot erhält deutlich bessere Noten in allen Fächern in diesem Abi-Experiment des Bayerischen Rundfunks und “besteht mit Bravour”. Und zeigt dadurch, wie schnell ChatGPT sich entwickelt hat (und vermutlich ähnlich andere Large Language Models, die als Alternativen verfügbar sind).

Und: Der Autor, der derzeit ein Buch schreibt und den Chatbot als Sparringspartner dabei nutzt, möchte niemals mehr in einer Welt ohne KI leben. Oder wie er sagt: Wer einmal Farbfernsehen hatte, wird niemals zum Schwarz-Weiß-Gerät zurück kehren wollen.

Fazit: Ein differenzierter Beitrag, der sowohl auf die Chancen von KI hinweist, als auch deren mögliche Risiken diskutiert.

Hier geht es zum Podcast (Dauer: 30 Minuten):

https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/ki-zwischen-abi-und-apokalypse/tagesschau/12733639/

Viel Freude beim Hören und alles Gute!

Herzliche Grüße, Stefan Klemens

🙂 🙋‍♂️🌳

PS: Lust auf einen Austausch zu People Analytics, Digital Assessment oder Künstliche Intelligenz im HRM? Dann vernetzen, Nachricht schreiben und / oder Termin für ein Online-Meeting vereinbaren. Oder klassisch: Telefonieren.

PS 1: Hier findet sich der Artikel von Christian Schiffer und Philipp Gawlik mit zusätzlichen Informationen zum neuen Abi-Experiment: https://www.br.de/nachrichten/netzwelt/chatgpt-ki-besteht-bayerisches-abitur-mit-bravour,TfB3QBw

PS 2: Anbei noch der Link zum Podcast (Dauer: 26 Minuten) über das erste Abi-Experiment mit dem Titel: “Schafft ChatGPT das Abi? (das bayerische!)” vom 20.02.2023: https://1.ard.de/11KM_ChatGPT_Abi

PS 3: Autor Christian Schiffer erzählt über sein Experiment auch in seinem Podcast unter: https://www.ardaudiothek.de/episode/umbruch-der-tech-podcast-von-br24/episode-56-wie-man-eine-ki-zum-abitur-schickt/br24/12704171/

Kategorien
Forschung

Forschung: Wird die Leistung von ChatGPT schlechter?

Verschlechtert sich die Leistung von ChatGPT? Ein kontrovers diskutierter Forschungsartikel untersucht diese Frage anhand der Version GPT-3.5 und GPT-4 von März und Juni 2023. Diese Large Language Models (LLMs) nutzen Menschen derzeit am häufigsten. Doch eine Analyse zeigt, dass die Abnahme der Qualität nur scheinbar ist und möglicherweise einen Fehler enthält.

Lieber Gast!

In der Hardcore KI-Gemeinde brodelt es: Denn der Forschungsartikel “How Is ChatGPT’s Behavior Changing over Time?” von Lingjiao Chen, Matei Zaharia und James Zou (Stanford University, University of California Berkley) zeigt, dass das aktuelle Modell GPT-4 vom Juni 2023 gegenüber dem Vorgänger GPT-3.5 als auch seiner eigenen Version von März 2023 bei bestimmten Aufgaben weniger leistungsfähig ist.

Und dies passe auch zum Gefühl vieler Nutzer, dass die Qualität des Chatbots von OpenAI & Microsoft in den letzten Monaten abnahm. In einer Antwort (siehe unten) analysieren Forscher der Uni Princeton, dass dies nicht der Fall ist, sondern vermutlich andere Gründe hat. Und auf Twitter hat Simon Boehm die Ergebnisse zum Coding unter die Lupe genommen und auf Twitter gepostet. Zudem habe ich weitere Hinweise zur Studie am Ende als Nachträge eingefügt. Doch zuerst zur Studie:

Die Studie von Chen, Zaharia und Zou (2023)

Die Forscher von Stanford & UC Berkley verglichen vier Versionen von ChatGPT für ihre Studie:

  • GPT-3.5 von März 2023
  • GPT-4 von März 2023
  • GPT-3.5 von Juni 2023
  • GPT-4 von Juni 2023

Jede dieser Versionen musste sich folgenden vier unterschiedlichen Aufgaben stellen:

  1. Mathematik-Probleme lösen
  2. Sensible bzw. gefährliche Fragen beantworten
  3. Programmiercode erzeugen
  4. Visuelles Schlussfolgern

Die Ergebnisse fassen die Autoren wie folgt zusammen:

»We find that the performance and behavior of both GPT-3.5 and GPT-4 can vary greatly over time. For example, GPT-4 (March 2023) was very good at identifying prime numbers (accuracy 97.6%) but GPT-4 (June 2023) was very poor on these same questions (accuracy 2.4%).

Interestingly GPT-3.5 (June 2023) was much better than GPT-3.5 (March 2023) in this task. GPT-4 was less willing to answer sensitive questions in June than in March, and both GPT-4 and GPT-3.5 had more formatting mistakes in code generation in June than in March.«

Die Antwort und Analyse von Narayanan und Kapoor (2023)

Doch wie Zain Kahn und sein Team in ihrem Newsletter Superhuman vom 20.07.2023 hinweisen, gibt es Gegenstimmen und andere Erfahrungen, insbesondere auf Twitter, wie die von Arvind Narayanan (Princeton CS prof. Director):

»We dug into a paper that’s been misinterpreted as saying GPT-4 has gotten worse. The paper shows behavior change, not capability decrease. And there’s a problem with the evaluation—on 1 task, we think the authors mistook mimicry for reasoning.«

Seine vollständige Antwort zusammen mit Sayash Kapoor lesen wir auf deren Blogseite “AI Snake Oil” unter dem Titel: “Is GPT-4 getting worse over time?” und dem Untertitel: “A new paper going viral has been widely misinterpreted”.

Und weiter heißt es in dieser Analyse von Narayanan & Kapoor (2023):

A new paper making the rounds is being interpreted as saying that GPT-4 has gotten worse since its release. Unfortunately, this is a vast oversimplification of what the paper found. And while the findings are interesting, some of the methods are questionable, so it’s worth digging into the details.”

Ihr Schlussfolgerung laut:

“In short, the new paper doesn’t show that GPT-4 capabilities have degraded. But it is a valuable reminder that the kind of fine tuning that LLMs regularly undergo can have unintended effects, including drastic behavior changes on some tasks. Finally, the pitfalls we uncovered are a reminder of how hard it is to quantitatively evaluate language models.”

+++ Update +++

Die Re-Analyse von Simon Böhm (2023)

Zur Überprüfung der Studie hat Simon Böhm (Replikationen sind eminent wichtig!) vom Astera Institute in Berkley, Kalifornien, die Ergebnisse zur Coding-Leistung der Versionen von GTP-4 re-analysiert. Er kommt zu folgendem Ergebnis, das er auf Twitter als Antwort auf den Post von Co-Autor Matei Zaharia teilt.

+++

Fazit

Bei der Nutzung von ChatGPT und anderen großen Sprachmodellen wie das neue “Bard” von Google, “Claude 2″ von Antrophic” oder den Open Source Modellen Bloom, OpenLLaMa, OpenAlpaca, Dolly 2 oder RedPajama (ich recherchiere hierzu und teste sowohl die kommerziellen und offenen Modelle; Vernetzen oder kontaktieren für Publikationsinfo) sollte man vorher wichtige Fragen klären.

Vor allem natürlich, wenn es um den offiziellen Einsatz in Organisationen von Chatbots oder generell Generativer Künstlicher Intelligenz geht (siehe hierzu das Beispiel AT&T in meinem letzten Newsblog-Beitrag).

Wie der Artikel und die Diskussion zeigen, dann nicht nur in rechtlicher und organisatorischer Hinsicht, sondern auch darum, worum es im Kern geht: Die Leistungsfähigkeit der Ergebnisse, die man durch passende Prompts (Fragen oder Aufforderungen an die KI-Software) bekommt – denn manche Chatbots erfinden Sachverhalte oder Quellen und verändern sich durch das Fine Tuning der Modelle.

Und gerade in Bezug auf die Qualität unterscheiden sich die Large Language Models, wie ich kürzlich in einem schönen Vergleich bei einem anderen Forscher sah.

Viel Freude beim Lesen und alles Gute!

Herzliche Grüße, Stefan Klemens

PS: Lust auf einen Austausch zu People Analytics, Digital Assessment oder Künstliche Intelligenz im HRM? Dann vernetzen, Nachricht schreiben oder Termin für ein Online-Meeting vereinbaren.

Nachträge

(1) 21.07.2023: Nach dem Hinweis von Paul McLeod auf LinkedIn habe ich mir den Post von Simon Boehm vom Astera Institute angeschaut und in meinem Newsblog-Artikel eingefügt.

(2) 21.07.2023: Hinweis: Der Co-Autor der Studie Matei Zaharia ist CTO von Databricks, die mit Dolly 2.0 einen Open Source Chatbot basierend auf Pythia von EleutherAI veröffentlicht haben. Vielleicht gibt es hier auch einen kleinen oder großen Wettkampf zwischen Vertretern der Open Source Large Language Models und kommerziellen Produkten wie OpenAI & Microsoft – ähnlich wie früher zwischen Linux und Windows (doch das “Kriegsbeil” ist ja laut Windows-Führungskräften begraben). Aber soweit bin ich (noch) nicht vernetzt mit dem Silicon Valley, um hier fundierte Antworten zu liefern. Da muss ich mal die Reporterin Yiwen Lu der New York Times fragen (siehe meinen Newsblog-Artikel von gestern: https://www.schorberg.de/the-new-york-times-ki-chatbots-an-us-arbeitplaetzen/ Oder wer weiß mehr?

(3) 22.07.2023: Wie ich heute morgen lese, gibt es von Bret Kinsella von https://voicebot.ai auf substack.com eine weitere Antwort auf die die Forschungsergebnisse von Chen, Zaharia & Zou (2023), wobei er u.a. auch die von mir bereits in meinem Newsblog-Artikel genannte Analyse von Narayanan und Kapoor (2023) aus ihrer AI Snake Oil Blogseite zitiert: https://synthedia.substack.com/p/new-research-says-gpt-4-is-getting

Quellen

Lingjiao Chen, Matei Zaharia und James Zou (2023). How Is ChatGPT’s Behavior Changing over Time? arXiv:2307.09009v1 [cs.CL] 18 Jul 2023.
https://arxiv.org/pdf/2307.09009.pdf

Arvind Narayanan & Sayash Kapoor (2023). Is GPT-4 getting worse over time? A new paper going viral has been widely misinterpreted. AI Snake Oil, 19.07.2023
https://www.aisnakeoil.com/p/is-gpt-4-getting-worse-over-time

Kategorien
Zeitungsartikel

The New York Times: KI-Chatbots an US-Arbeitplätzen

Lieber Gast!

Meine Recherchen zum Einsatz von Künstlicher Intelligenz im Human Resource Management (kurz: KI im HRM) finden immer wieder interessante Artikel aus den Weiten des Internets. Und diese teile ich gerne mit der Community. Heute:

Ein Artikel von Yiwen Lu, die aus San Francisco für die The New York Times über Business und Technologie berichtet. Diese publizierte online am 05. Juli 2023 ihren lesenswerten Artikel mit dem Titel:

»As Businesses Clamor for Workplace A.I., Tech Companies Rush to Provide It«

Der Artikel startet mit dem Beispiel von AT&T bei der Einführung eines Chatbots (ChatGPT bzw. Azure OpenAI Services) auf Basis Generativer Künstlicher Intelligenz.

Und der Beitrag zeigt weiter, dass Tech-Unternehmen wie Mircosoft, Amazon, Box, Salesforce, Oracle, Cisco und andere seit Kurzem vier Arten von Produkte auf Basis maschinellen Lernens (von vielen heute mit KI gleichgesetzt, obwohl das Fachgebiet der Informatik natürlich viel breiter ist) anbieten oder planen, um effizienter und produktiver zu arbeiten:

1. Zur Zusammenfassung von Gesprächsnotizen und langen Dokumenten;

2. Zur Erstellung neuer Inhalte wie Verkaufs-E-Mails und Produktbeschreibungen;

3. Zur Erzeugung von Programmcode für Softwareentwickler;

4. Zur Suche nach Unternehmensdaten um Fragen von Beschäftigen zu beantworten.

Zum Schluss geht der Artikel auf die Risiken und Einsatzmöglichkeiten von Chatbots abhängig vom Arbeitsplatz ein.

Hier geht es zum Artikel: https://www.nytimes.com/2023/07/05/technology/business-ai-technology.html

Viel Freude beim Lesen und alles Gute!

Herzliche Grüße, Stefan Klemens

PS: Lust auf einen Austausch zu People Analytics, Digital Assessment oder Künstliche Intelligenz im HRM? Dann vernetzen, Nachricht schreiben oder Termin für ein Online-Meeting vereinbaren.

Weitere Links

Website und LinkedIn-Profil der Autorin Yiwen Lu:
https://www.yiwenlu.net/
https://www.linkedin.com/in/yiwenlu1/

Kategorien
Buch

Neu: Künstliche Intelligenz und Data Science in Theorie und Praxis

Lieber Gast,

Künstliche Intelligenz (KI) ist das Megathema seit Anfang 2023 – doch für Unternehmen ohne Data Science vielleicht ein Rechner ohne Strom! Gerne weise ich daher heute in meinem Newsblog auf ein neues Buch zu Data Science und KI hin, das am 20. Juni 2023 (bzw. einen Tag vorher als eBook) im Verlag Springer Spektrum erschien und folgenden Titel trägt:

»Künstliche Intelligenz und Data Science in Theorie und Praxis: Von Algorithmen und Methoden zur praktischen Umsetzung in Unternehmen«

Bevor ich jedoch auf das Buch der Herausgeber Andreas Gillhuber, Göran Kauermann und Wolfgang Hauner eingehe, möchte ich die Frage beantworten, was Data Science ist. Und am Ende, nach meinem Fazit zu dieser Buchvorstellung, finden sie noch mehr als 10 Quellen und weitere Literaturangaben zu Data Science, Künstlicher Intelligenz und Python als wichtige Programmiersprache.

Was ist Data Science?

Data Science, Datenwissenschaft, ist das anwendungsorientiert Fachgebiet, welches aus großen Datenmengen aus einem bestimmten Bereich Wissen filtern (Extraktion) und dieses Wissen in nützliche Handlungen für das Business zu transferiert.

Häufige Ziele sind, relevante Muster in Daten zu erkennen, die Schlussfolgerungen daraus zu ziehen und / oder Entwicklungen von Faktoren (Variablen) zu modellieren und zu prognostizieren. Dabei ist die Visualisierung von Daten und Ergebnissen sowohl für deren Verständnis als auch für die Kommunikation mit Dritten essentiell.

Eine Definition liefert Herter (2022, S. 26):

»Data Science ist ein interdisziplinäres Wissenschaftsfeld, das sich mit der exakten digitalen Erfassung, Analyse und Visualisierung vergangener, aktueller sowie zukünftiger Phänomene unserer realen Welt beschäftigt, um
datengetrieben den Prozess der Wissensgenerierung als bestmögliche Entscheidungsbasis für menschliches Handeln zu optimieren.«

Zur Datenanalyse nutzt das Gebiet vor allem multivariate Methoden der Statistik sowie des Maschinellen Lernens – wobei sich diese Bereiche nicht klar abgrenzen lassen, denn die Regressionsanalyse, die Faktorenanalyse oder die Clusteranalyse sind bekannte und klassische Verfahren der Statistik, während Algorithmen (mathematische Formeln, Rechenregeln), wie k-Nearest Neighbor, Support Vector Machines (SVM), Random Forest oder auch die künstlichen Neuronale Netze (KNN) ihren Ursprung eher in der Forschung zur Künstlichen Intelligenz haben.

Zudem gibt es mit den Verfahren der künstliche neuronalen Netze (KNN) bzw. des Deep Learning einen Bereich, der nicht zur klassischen Statistik gehört, sondern aus der KI-Forschung stammt – und dessen Ergebnisse wie Text- und Bildgeneratoren (z.B. ChatGPT und Midjourney) das Bild von Künstlicher Intelligenz in der Öffentlichkeit dominieren (sog. Generative Modelle).

An der Entwicklung von Künstlicher Intelligenz und von Deep Learnings waren neben Informatikern übrigens auch weitere Disziplinen wie Neuro- und Kognitive Psychologie oder Linguistik beteiligt und einige ihrer Pioniere wie Geoffrey Hinton haben Abschlüsse in mehreren Fächern.

Wer sich also mit Künstlicher Intelligenz tiefer beschäftigen und dessen Grundlagen verstehen möchte, sollte hierzu ein gutes Buch zu Data Science lesen. Und wer als (HR) Data Scientist bzw. People Analyst arbeitet, sollte stets auf dem aktuellen Stand sein und schauen, was es Neues in diesem Bereich gibt, wie andere an die Sache herangehen und was wir aus deren Erfahrungen und Praxisbeispielen lernen können.