Blog

Auf eine Tasse Java mit Dr. Stefan Jakob

Stefan, du gehörst bei Micromata zu den erfahrensten KI-Experten. Was fasziniert dich persönlich an KĂŒnstlicher Intelligenz?

Mich faszinieren zwei Aspekte des KI-Forschungsbereichs. Der erste Aspekt ist die geschichtliche Entwicklung der KĂŒnstlichen Intelligenz. In den ersten Jahrzehnten nach der Veröffentlichung von „Computing Machinery and Intelligence“ durch Alan Turing wurde eine Vielzahl an Algorithmen entwickelt, die mit den damaligen RechenkapazitĂ€ten kaum nutzbar bzw. umsetzbar waren. Erst im Laufe der Zeit, inkl. einiger harter RĂŒckschlĂ€ge,  konnten sie dank steigender RechenkapazitĂ€ten effektiv eingesetzt werden.

Dadurch ist eine Vielzahl an Methoden und weiteren Algorithmen entstanden, die unterschiedlichste Probleme lösen können.  Heute können wir  unterschiedlichste Kombinationen ausprobieren, um eine möglichst optimale Lösung zu erzielen.

Der zweite Aspekt ist die FĂ€higkeit verschiedener Methoden, wie z. B. die der Neuronalen Netze, neue Aufgaben zu lernen. Diese Aufgaben bzw. FĂ€higkeiten reichen vom Aneignen einfacher mathematischer Funktionen bis hin zum Erwerb natĂŒrlicher Sprache (siehe ChatGPT). Sie sind dabei nicht eingeschrĂ€nkt  – und wir haben höchstwahrscheinlich ihr volles Potential noch lĂ€ngst nicht ausgeschöpft.

Was macht dir beim Arbeiten mit KI am meisten Spaß?

Besonders die Anfangsphase in Projekten mit analytischer und kognitiver KI. Weil wir hier eine sehr große Freiheit in der Auswahl und eine offene Spielwiese zum Testen von KI-Algorithmen und Methoden haben.

In dieser Phase beschĂ€ftigen wir uns sehr viel mit den Daten an sich, versuchen, ZusammenhĂ€nge bzw. Eigenarten der Daten zu verstehen und einen GesamtĂŒberblick ĂŒber das zu lösende Problem zu bekommen. Typische Fragen, die in dieser Phase auftreten, sind zum Beispiel, ob die Daten mit Klassen versehen sind, um welche Art von Daten es sich handelt, ob sie rein numerisch, Texte, Bilder oder eine Mischung aus all dem sind. Diese Fragen beeinflussen die anschließende Auswahl der KI-Methoden bzw. Algorithmen nĂ€mlich maßgeblich. Denn hier steht eine Vielzahl von Möglichkeiten mit unterschiedlicher KomplexitĂ€t bereit.

Typischerweise beginnen wir mit einem sehr einfachen Ansatz, um einen ersten Benchmark zu erstellen. Einer davon ist kNN (k Nearest Neighbours) und eignet sich dann besonders, wenn man Zugriff auf einen klassifizierten Trainingsdatensatz mit numerischen Daten hat. kNN sucht die k nĂ€chsten Nachbarn und weist neuen Datenpunkten die Klasse zu, welche in den k Nachbarn am hĂ€ufigsten vorkommt. Da bei der Suche nach diesen k nĂ€chsten Nachbarn allerdings alle Daten betrachtet werden mĂŒssen, erhöht sich die Laufzeit mit jedem Datenpunkt. Somit eignet sich kNN spĂ€ter nicht fĂŒr den produktiven Betrieb.

Nachdem der erste Benchmark vorhanden ist, beginnt die eigentliche Konzeptions- und Forschungsarbeit. Wir suchen passende Algorithmen aus und vergleichen ihre Leistung mit dem Benchmark, um eine möglichst optimale Lösung zu finden. Diese ist anfangs zumeist nicht eindeutig und stellt bei jedem Projekt eine neue und spannende Herausforderung dar.

Was empfiehlst du Unternehmen, um die VorzĂŒge von KI besonders wertschöpfend zu nutzen?

Viele Unternehmen sitzen auf einem sich stetig vermehrenden Datenschatz. Und dieses Datenvolumen vervielfacht sich stÀndig,  als logische Folge einer immer intensiveren Nutzung digitaler Produktions-, Informations- und KommunikationskanÀle.

Hier können KI-Methoden oder Algorithmen besonders gut wertschöpfend eingesetzt werden. Im Falle von IoT-Daten eignen sich dafĂŒr am besten analytische oder kognitive KI-Verfahren. Durch sie kann die QualitĂ€t der Daten erhöht werden, indem Datenfehler automatisiert erkannt und behoben werden. Diese bereinigten Daten bilden dann eine gute Grundlage zur Anwendung weitere Verfahren, wie z. B. Anomalieerkennung oder Trendanalysen.

ZusĂ€tzlich sehe ich sehr große Vorteile im Einsatz von generativer KI. So können etwa Onboarding-Prozesse deutlich beschleunigt werden, wenn Unternehmen mit Chatbots arbeiten. Zudem wird die Suche nach wichtigen Informationen erleichtert und beschleunigt. Etwa bei der Arbeit mit großen Dokumenten, sowohl bei der Zusammenfassung des Inhalts als auch zur Abfrage bestimmter Informationen aus dem Dokument per Chatbot.

KI, insbesondere der Einsatz von Sprachmodellen wie ChatGPT wird ja auch von Sorgen begleitet.

Der Einsatz von Sprachmodellen hat große Vorteile, doch auch ĂŒber mögliche Risiken sollten wir uns bewusst sein. Zum Beispiel bei Transparenz und ErklĂ€rbarkeit der generierten Antworten. Bisher liefert ChatGPT keine Quellen zu den generierten und hĂ€ufig sehr ĂŒberzeugend klingenden Antworten. Hierdurch können Falschinformationen entstehen, die dann in Umlauf geraten. AnsĂ€tze wie GPT Researcher bieten hier indes bereits gute AnsĂ€tze und liefern die Quellen mit, auf denen die generierten Antworten beruhen.

Es kann passieren, dass wir uns in Zukunft sehr stark von KI abhĂ€ngig machen. In kritischen Bereichen wie Gesundheit oder Verkehrswesen sollten Entscheidungen deshalb weiterhin durch echte Menschen ĂŒberwacht werden, um schwerwiegende Fehler zu verhindern.

Zudem mĂŒssen wir uns vor Betrugsmaschen wie bspw. Deep Fakes und anderen Angriffsmustern schĂŒtzen. Hier ist die gesamte Gesellschaft gefragt – von Unternehmen und Institutionen bis hin zu jedem/jeder Einzelnen.

Denkst du wir werden eines Tages die berĂŒhmt-berĂŒchtigte AGI* haben?

Artificial General Intelligence (AGI) ist ein sehr schwieriges Thema, bei dem die Meinungen ĂŒber den aktuellen Stand der Forschung sehr weit auseinander gehen. Ich denke, wir bewegen uns aktuell in eine vielversprechende Richtung, denn mit den momentanen Sprachmodellen wie GPT-4 haben wir bereits eine Grundlage geschaffen, auf der Agenten  in natĂŒrlicher Sprache miteinander kommunizieren können. Tools wie YOLOv8 (You Only Look Once) bieten die Möglichkeit zu maschinellem Sehen, also Objekte in Echtzeit zu erkennen.

Einige wichtige Bausteine zur Erschaffung einer AGI sind damit bereits vorhanden. Jedoch können Sprachmodelle die gelernten Token nicht im eigentlichen Sinne verstehen, sie ahmen sie bisher nur nach und wenden sie an. Auch Herausforderungen wie der berĂŒhmte „Chinese Room“ sind bisher noch nicht gelöst, was indes ein wichtiger Schritt Richtung AGI wĂ€re.

Ich denke, in den nĂ€chsten Jahren wird die Forschung große Fortschritte in dieser Richtung erzielen. Ob und wann wir es schaffen, AGI zu realisieren, ist Stand heute noch sehr schwer zu sagen, aber da ist eindeutig Bewegung drin.

Vielen Dank fĂŒr das GesprĂ€ch, lieber Stefan!

*Artificial General Intelligence

Jule Witte

Presse & Kommunikation
presse@micromata.de