AI-Roundtable Vol. 5 bei eology

28.03.202403 min

Dieser AI-Roundtable war für uns etwas ganz Besonderes. Vergangenen Dienstag haben wir bei unserer 14-tägigen Zusammenkunft zum Thema KI/AI keine eigenen Themen mitgebracht und vorgestellt, sondern uns einen Vortrag von Kai Spriestersbach angesehen.
Unter der Headline „Hosen runter: Die ungeschminke Wahrheit über generative KI-Tools gab es für uns 45 Minuten lang wertvollen Input, den wir anschließend in der Gruppe natürlich noch diskutiert haben 😉

Was ist überhaupt eine KI?

Mit dieser Frage sind wir in den Vortrag eingestiegen. Kai zeigt auf, dass das Thema KI bereits in den 40er Jahren zum ersten Mal aufgetreten ist, in Form von einem simplen Taschenrechner durch den fanzösischen Mathematiker Blais Pascal. Ja, Du hast richtig gelesen. Genau betrachtet, ist ein Taschenrechner ebenfalls eine KI, die uns auf Basis der Daten, die wir eingeben, ein entsprechendes Ergebnis liefert. Gerade bei komplexeren Aufgabenstellungen auch schneller als ein Mensch.
Kai stellt zusätzlich These in den Raum, dass die Defintion des Wortes „künstliche Intelligenz“ sehr schwierig ist. Als Beispiel nennt er hierfür die Definition des Wortes Intelligenz aus dem Oxford Dictionary, welche besagt, dass unter Intelligenz folgendes zu verstehen ist: „Fähigkeit [des Menschen], abstrakt und vernünftig zu denken und daraus zweckvolles Handeln abzuleiten“. Durch diese Definition stellen sich im Anschluss die Fragen, was denn nun genau vernünftig ist und was genau zweckvoll ist?

Schafft eine KI ein Examen für Menschen?

Die Antwort bekamen wir sehr schnell – ja, gerade ChatGPT 4 schafft es, Examenprüfungen für Menschen erfolgreich zu absolvieren. Bekannt aus den Medien ist hier zum Beispiel das Uniform Bar Examen für die Zulassung von Anwälten zur amerikanischen Anwaltskammer. ChatGPT 4 konnte dieses Examen mit über 90% richtigen Antworten ablegen. Doch Vorsicht – ist ChatGPT 4 deswegen nun ein Anwalt? Ich denke wir sind uns hier einig, dass eine KI kein Anwalt ist. Fragst Du zum Beispiel den Chatbot nach Präzedenzfällen, so wirst Du keine zuverlässigen Antworten erhalten. Das ist bereits einem US-Anwalt, der für seine Verfahrensvorbereitungen ChatGPT genutzt hat, zum Verhängnis geworden, denn die Fälle waren tatsächlich frei erfunden.

Warum konnte ChatGPT dennoch die richtigen Antworten geben?

Diese Frage ist durch Kai sehr einfach zu beantworten gewesen. ChatGPT wird mit unendlich vielen Daten trainiert, weswegen der Bot auf die entsprechenden Fragen und Antworten durch sein Training zugreifen kann. Es hat die Prüfung quasi vorab auswendig gelernt.

Wie lernt eine KI?

Im Grunde ist das ganz einfach. Die künstliche Intelligenz bekommt Input, damit sie einen passenden Output geben kann. Zwischen Input und Output hängt das Modell. Das Modell lernt den gewünschten Output zu geben.
Kai erklärt das am Beispiel von Hundebildern. Eine KI soll anhand eines Bildes von einem Hund erkennen, welche Hunderasse zu sehen ist. Dafür wird das Bild als Input eingespeist und dem Modell anhand von vielen Milliarden Parametern gesagt, um welche Hunderasse es sich dabei handelt. Damit das auch zuverlässig für den User funktioniert, reicht aber nicht nur ein Bild, sondern man gibt der künstlichen Intelligenz jeweils so viele Bilder wie nur möglich von den unterschiedlichen Rassen.

Fehler durch künstliche Intelligenz

Sicherlich hast Du auch schon einmal einer KI einen Prompt gegeben, aber einfach nicht das Ergebnis erhalten, das Du haben wolltest. Woran liegt das? Hinter jeder künstlichen Intelligenz stecken Menschen, die diese trainieren und weiterentwickeln. Kai beschreibt eine künstliche Intelligenz als „stochastischen Papagei“ und so ganz Unrecht hat er damit nicht. Wird zum Beispiel eine KI darauf trainiert, anhand von Einstellungsdaten aus der Vergangenheit, passende Bewerbungen für eine technischen Beruf herauszusuchen, so wird diese KI weibliche Bewerber ausschließen, denn technische Berufe werden auch heute noch überwiegend von Männern ausgeübt. In diesem Fall weiß es die KI einfach nicht besser, denn der Input, den sie vom Menschen bekommen hat, war nicht ausreichend.

Alle Ergebnisse, die Dir eine KI geben kann, hängen davon ab, welche Informationen vorab durch den Menschen an sie weiter gegeben wurden. Wird der Input an die künstliche Intelligenz nicht korrekt eingespeist, so kannst Du auch kein vernünftiges Ergebnis erwarten.

Was ist unser Fazit?

Sicherlich ist KI und gerade die Chatbots eine Erleichterung für viele Menschen in ihrem Alltag, doch solltest Du nie vergessen, dass KI ein Werkzeug ist und kein Automat für faule Menschen. Sämtliche Daten, die Du von einer KI erhältst, solltest Du sorgfältig prüfen, bevor Du sie weiterverwendest. Am Input für die künstliche Intelligenz ist der Mensch beteiligt und wenn Du keine korrekten Daten erhältst, dann liegt das nicht daran, dass die KI einen Fehler gemacht hat. Das Thema geht bereits beim Input durch den Menschen los.

Du möchtest mehr zum Thema KI erfahren? Dann schau Dir doch unsere KI-Studie an 😊

Kathas Herz schlägt seit ihrer Ausbildung zur Kauffrau für Marketingkommunikation für Marketing. Als Teil des eology-Marketing-Teams kümmert sie sich um das Messe- und Eventmanagement der Agentur. Außerdem teilt Katha gern ihr gesammeltes eology-Wissen in Magazinen, Blogs und Zeitschriften.

Kontakt

Melde Dich
bei uns

  +49 9381 5829000