Blogpost vom 06. Juli 2023

K√ľnstliche Intelligenz: Chancen und Risiken

KI Roboter kniet in der Natur

Die rasante Entwicklung im Bereich der K√ľnstlichen Intelligenz (KI oder AI) hat zu faszinierenden Innovationen gef√ľhrt und quasi jeden Tag werden neue Anwendungen vorgestellt. Besonders der Fortschritt bei generativen KI-Modellen hat eine Vielzahl an Tools hervorgebracht, die unsere Arbeit nachhaltig beeinflussen. Mit Modellen wie Midjourney (1) oder DALL¬∑E 2 (2) sind wir heute in der Lage, Bilder zu generieren, die von menschlicher Kunst kaum zu unterscheiden sind. Gleichzeitig haben wir mit ChatGPT (3), einen interaktiven Chatbot mit einer gigantischen Wissensbasis, der uns wie nie zuvor eine nat√ľrliche Konversation erm√∂glicht.

Dieser Zuwachs an generativen KI-Modellen er√∂ffnet uns einige Chancen. Zum einen haben wir nun die M√∂glichkeit, Bilder durch eine KI generieren zu lassen, was die Grenzen der menschlichen Kreativit√§t erweitert. Zum anderen k√∂nnen diese Modelle auch bei der L√∂sung komplexer Probleme helfen, beispielsweise bei der Softwareentwicklung, wo sie uns beim Debugging oder bei der Implementierung unterst√ľtzt.

Gleichwohl gehen mit diesen M√∂glichkeiten, wie bei jeder Innovation, auch gewisse Gefahren einher, denen wir uns stellen m√ľssen.

In den folgenden Abschnitten werden wir uns daher mit den Chancen und Risiken der Anwendung von KI und generativen Modellen beschäftigen.

Chancen von KI

Die Chancen, die sich durch die rasante Entwicklung im Bereich KI entstehen, sind quasi grenzenlos. Allein in unserem allt√§glichen Leben finden sich zahlreiche Anwendungszwecke. Hierzu z√§hlen unter anderem das Verfassen von Texten, die Gelegenheit auf fachliche Fragen sofort Antwort zu bekommen, Grafiken zu erstellen, Dokumente zu √ľbersetzen oder Softwareteile zu programmieren. Dadurch erweitern wir unsere eigenen F√§higkeiten, k√∂nnen unsere Produktivit√§t steigern bzw. komplexe Aufgaben schneller und potentiell besser erledigen.

Mustererkennung mit KI

Ein m√∂glicher Einsatzbereich von KI ist die Erkennung von Mustern in Daten, z. B. das Auffinden von Anomalien (Werte, die nicht zu den restlichen Daten passen). Hierbei kann eine automatisierte Suche die menschlichen Experten wirksam unterst√ľtzen und bisher unbekannte Zusammenh√§nge in den Daten finden.

Ein Beispiel hierf√ľr ist die Auswertung und die Plausibilisierung von Daten verschiedener Sensoren (Temperatur, Druck, Strom usw.). Die M√∂glichkeiten zur Auswertung sind dabei vielf√§ltig. Hierzu z√§hlen unter anderem die Bestimmung von Korrelationen, Maxima bzw. Minima oder fehlenden Datenpunkte. Auf der einen Seite gewinnt man dadurch ein besseres Verst√§ndnis der Sensorwerte. Auf der anderen Seite kann man diese Erkenntnisse nutzen, um automatisierte Entscheidungen anhand der gefundenen Muster zu treffen.

Automatisierung mit KI

Ferner l√§sst sich die Automatisierung unterschiedlichster Aufgaben vorantreiben. Ein Beispiel daf√ľr sind Chatbots. Sie k√∂nnen eingesetzt werden, um die Interaktion mit Nutzern zu automatisieren. Dabei k√∂nnen h√§ufig gestellt Fragen zun√§chst durch den Chatbot beantwortet werden, ein menschliches Zutun ist erst bei komplexeren Fragen oder, falls pers√∂nliche Daten genutzt werden, erforderlich. Zus√§tzlich k√∂nnen Chatbots Prozesse einfacher und effizienter machen – wie bspw. das Onboarding neuer Mitarbeitender. Daf√ľr k√∂nnen z. B. die unternehmensinternen Webseiten und Wikis als Datenquellen genutzt werden. Die Betreffenden k√∂nnen dann Fragen an den Chatbot stellen, welcher die passenden Antworten aus diesen Datenquellen erstellt.

Zusätzlich können Sprachmodelle genutzt werden, um das Erstellen von Dokumentationen zu großen Teilen zu automatisieren. Ein Nutzer liefert dazu eine Stichpunktsammlung und die KI vervollständigt diese Stichpunkte zu einem kompletten Beitrag, einer Beschreibung oder auch einer Dokumentation von Quellcode.

Barrierefreiheit mit KI

Dar√ľber hinaus kann KI die Barrierefreiheit im Unternehmen erh√∂hen. Durch die Verwendung eines Large Language Models wie GPT k√∂nnen Texte √ľbersetzt werden, Bilder f√ľr Screenreader beschrieben oder offene Fragen interaktiv beantwortet werden.

Medizinische Diagnostik mit KI

Ein weiteres vielversprechendes Anwendungsfeld ist die Unterst√ľtzung medizinischer Diagnosen. Beispiele sind die Erkennung von Krebszellen (4) oder die Simulation realer Patient:innen, an denen verschiedenste Szenarien durchexerziert werden und die Wirksamkeit von Therapien evaluiert werden k√∂nnen. (5)

Maschinelles Lernen mit KI

Als letztes Beispiel haben KI und Methoden des Maschinellen Lernens einen großen Einfluss auf die produzierenden Branchen. Die Anwendung von Predictive Maintenance (6) ermöglicht hier etwa eine Vorhersage von Ausfällen einzelner Maschinen, reduziert so das Risiko von Ausfallzeiten, ermöglicht eine rechtzeitige und verhindert eine unnötige Wartung.

Mehr noch kann KI zur Erhöhung der Sicherheit beim autonomen Fahren beitragen, beispielsweise durch die Echtzeiterkennung von Fußgänger:innen oder Radfahrenden im Straßenverkehr.

Die Chancen der KI-Anwendung sind also enorm. So gro√ü, dass wir hier schwerlich alle m√∂glichen Anwendungsf√§lle listen k√∂nnen. Damit indes KI f√ľr uns alle zur Erfolgsgeschichte wird, ist es hilfreich, sich auch die Risiken bewusst zu machen. Um uns selbst vor deren Missbrauch zu sch√ľtzen und um unserer Verantwortung im Umgang mit dieser bahnbrechenden Technologie gerecht zu werden. (7)

Risiken von KI

Einige Risiken betrachten wir nun am Beispiel von ChatGPT (8), welches von OpenAi entwickelt wird.

Ein reales Risiko sind Halluzinationen (9). Modelle wie GPT-3.5, GPT-4 oder ChatGPT neigen dazu, sich Fakten auszudenken bzw. Behauptungen aufzustellen. Der Grund daf√ľr liegt im Large Language Model, welches die Grundlage f√ľr ChatGPT bildet. Hierbei handelt es sich um ein riesiges Neuronales Netz, das menschliche Sprache √ľber Wahrscheinlichkeiten abbildet. Dieses Modell versteht folglich nicht den Inhalt der Anfragen, sondern bestimmt die wahrscheinlichste Antwort, die also nicht zwangsl√§ufig auf Fakten beruhen muss. Die ausgegebenen Antworten klingen dabei h√§ufig sehr √ľberzeugend, wodurch die Gefahr besteht, dass sie als wahr angenommen werden und sich so Falschinformationen verbreiten.

M√∂gliche Ans√§tze zur Reduktion dieses Risikos ist das Pr√ľfen der Aussagen durch Expert:innen oder durch Nutzende. Beide Gruppen melden potenzielle Fehlinformationen, die anschlie√üend ein weiteres Mal gepr√ľft werden. Dadurch wird in GPT ein Trainingsset erstellt, das in zuk√ľnftigen Trainingszyklen zur Vermeidung von Halluzinationen genutzt werden kann und somit die Qualit√§t und die Zuverl√§ssigkeit der Aussagen erh√∂ht.

Neben Halluzinationen ist auch der einfache Zugang zu Harmful Content (potenziell sch√§dlichen Inhalten) eine Herausforderung. Dies umfasst etwa Ratschl√§ge oder Ermutigungen zu selbst verletzendem Verhalten, Anleitungen f√ľr gewaltt√§tige Angriffe sowie Informationen zur Beschaffung oder Herstellung illegaler Substanzen. Um dieses Risiko zu minimieren, setzt OpenAi unter anderem auf Red Teaming.¬† Damit gemeint ist ein Vorgang, bei dem Experten versuchen, durch geschickt formulierte Eingaben an sch√§dliche Inhalte zu gelangen und so Sicherheitsl√ľcken aufzudecken. Dabei kommen Expert:innen aus den unterschiedlichsten Bereichen zum Einsatz. Dazu z√§hlen unter anderem solche aus Chemie, Biologie, Cybersecurity oder Nuklearkraft.

Ein weiteres potenzielles Risiko ist mangelnder Datenschutz. ChatGPT wurde mit √∂ffentlich verf√ľgbaren Informationen aus dem Internet trainiert. Daher enth√§lt es auch pers√∂nliche Daten und ist sogar teilweise in der Lage, Telefonnummern mit Orten zu verkn√ľpfen. OpenAi versucht, diese Art von Anfragen zu unterbinden und pers√∂nliche Daten aus dem Trainingsset zu entfernen. Wenn wir ChatGPT also mit unseren Systemen verkn√ľpfen, sollten wir uns immer fragen: Welche Nutzer haben potenziell Zugriff auf die Daten? Welche Nutzer d√ľrfen welche Informationen sehen? Ist das √úbertragen der Daten DSGVO-konform? Wo werden die Daten gespeichert? Wie k√∂nnen Daten aus dem System entfernt werden?

KI-Tools bzw. Maschinelle Lernverfahren neigen dazu, Abk√ľrzungen zu suchen, wenn der zugrunde liegende Datensatz es zul√§sst. Ein popul√§res Beispiel daf√ľr ist die automatische Erkennung von Hautkrebs (10+11). √úblicherweise werden vom Arzt Fotos von potenziell b√∂sartigen Muttermalen gemacht, deren Gr√∂√üe mit einem Lineal angezeigt wird. Da dies bei gutartigen Malen selten geschieht, kann das Neuronale Netz lernen, dass das Vorhandensein von Linealen auf ein b√∂sartiges Muttermal hindeutet ‚Äď und umgekehrt. Um darauf folgende Fehlentscheidungen zu vermeiden, sollte nur ein umfangreicher und ausgewogener Datensatz verwendet werden, der vorher von menschlichen Expert:innen gesichtet wurde. Wenn potenzielle Abk√ľrzungen erkannt werden, k√∂nnen diese im sp√§teren Training explizit verboten oder sogar als eigenst√§ndiges Trainingsfeature genutzt werden (dieses Feature sollte jedoch nicht das einzige Entscheidungskriterium sein).

Fazit

Die Anwendung von KI-Tools bietet viele Chancen zur Automatisierung und zur Beschleunigung von Arbeitsschritten. Jedoch sollte man nicht blind auf die Antworten einer KI vertrauen und unerwartete Antworten ggf. pr√ľfen. (12) Zus√§tzlich sollten wir bedenken, welche Daten wir an KI-Tools weitergeben. Pers√∂nliche oder unternehmenskritische Daten sollten dabei besonders sensibel behandelt werden. Um die Kontrolle √ľber die eigenen Daten zu behalten, empfiehlt sich das Hosten einer eigenen Instanz (z. B. GPT-3.5 in Microsoft Azure). Diese erlaubt die Nutzung eine Chatbots mit unternehmensrelevanten Daten und Informationen, ohne damit die KI zu f√ľttern. Wir empfehlen diese Art der Integration, weil damit eine eigene Benutzerverwaltung, selbst definierte Zugriffsrechte und die sichere Nutzung von Unternehmensdaten erm√∂glicht werden.