Glossar

In unserem Glossar finden Sie verständliche Erläuterungen zu wichtigen Begriffen rund um Künstliche Intelligenz und Lernende Systeme.

  • H
  • J
  • N
  • Q
  • X
  • Y
  • Z
  • A
  • Adversarial-Machine-Learning-Angriffe können beispielsweise als Fehlklassifikationseingaben oder als Datenvergiftung (engl. data poisoning) verstanden werden, das bedeutet die Manipulation des Trainingsdatensatzes eines KI-Systems. Häufiger kommen die Fehlklassifikationseingaben vor. Hierbei schleust der Angreifer schädliche Inhalte in den Filter eines Machine-Learning-Algorithmus ein. Ein solcher Angriff zielt darauf ab, dass das System einen bestimmten Datensatz falsch klassifiziert.

  • Teilgebiet der Antriebstechnik, das sich mit dem Erzeugen einer Bewegung oder Verformung beschäftigt. Aktoren wandeln Signale, die etwa von einem Steuerungscomputer ausgehen, in physikalische Effekte um, insbesondere in mechanische Bewegungen. Im Kontext Lernender Systeme können Aktionen auch rein digital umgesetzt werden. Aktorik ist neben Sensorik und Selbstregulation eine der drei Hauptkomponenten von autonomen Systemen.

  • Ein Algorithmus ist eine genaue Berechnungsvorschrift für einen oder mehrere Computer, eine Aufgabe zu lösen. Eine besondere Klasse von Algorithmen sind Lernalgorithmen: Dabei handelt es sich um Verfahren des maschinellen Lernens, die aus Beispieldaten (Lerndaten oder Trainingsdaten) ein Modell abstrahieren, das auf neue Beispieldaten angewendet werden kann.

  • Verordnung der Europäischen Union (EU), die Regeln für die Entwicklung und den Einsatz von KI-Systemen festlegt und einen einheitlichen, verbindlichen Rechtsrahmen schafft. Ziel ist es, vertrauenswürdige KI zu gestalten, die entsprechend europäischer Wertvorstellungen eingesetzt wird. So sollen KI-Systeme, die in der EU verwendet werden, sicher, transparent, ethisch, unparteiisch und unter menschlicher Kontrolle sein. Gleichzeitig verfolgt die Verordnung den Anspruch, KI-Technik und Forschung innerhalb der EU wettbewerbsfähig zu halten und Innovationen zu ermöglichen. Der 2024 verabschiedete AI Act ist das weltweit erste transnationale KI-Regelwerk.

  • Softwaresysteme, die den Menschen in bestimmten Situationen oder bei bestimmten Handlungen unterstützten. Sie analysieren dazu die gegenwärtige Situation und treffen gegebenenfalls darauf aufbauend Vorhersagen. So werden sie mit Hilfe von Methoden des maschinellen Lernens kontextsensitiv und können sukzessive besser mit Menschen interagieren. Um den Nutzer nicht zu überlasten, sollte sich die Interaktion seinem natürlichen Handlungsablauf anpassen und die Ausgabe komprimiert vorliegen. Assistenzsysteme können vom Menschen aktiviert und von ihm übersteuert werden. Sie sind heute bereits weit verbreitet und zu unterscheiden von automatisierten Systemen und autonomen Systemen

  • Maschinen, Roboter und Softwaresysteme, die einen vorgegebenen Handlungsablauf ausführen. Sie können dabei weder den Ablauf ändern oder anpassen noch die Folgen einer Aktion prognostizieren. Dadurch unterscheiden sie sich von autonomen Systemen bzw. Lernenden Systemen.

  • Bezeichnet den Automatisierungsgrad eines Systems. Je höher dieser ist, desto weniger Überwachung und Kontrolle durch den Menschen ist nötig. Man unterscheidet ferngesteuerte (teleoperierte) Systeme, Assistenzsysteme, automatisierte Systeme und autonome Systeme. Bei Fahrzeugen besteht bereits eine normierte Einteilung in teil-, hoch- und vollautomatisierte Systeme.

  • Maschinen, Roboter und Softwaresysteme gelten als autonom, wenn sie ohne menschliche Steuerung und detaillierte Programmierung ein vorgegebenes Ziel selbständig und an die Situation angepasst erreichen. Autonome Systeme haben die Fähigkeit sich der Umwelt anzupassen, zu lernen und gegebenenfalls mit anderen Systemen oder Menschen zu kooperieren. Sie nehmen ihre Umgebung über Sensoren wahr (Sensorik), generieren proaktiv, situationsgerecht und in Echtzeit eine angemessene Aktion (Selbstregulation) und führen diese über Aktoren aus (Aktorik). Jedes autonome System ist ein Lernendes System, denn die Lernfähigkeit ist für die Anpassung des Handlungsablaufs notwendig. Allerdings sind nicht alle Lernenden Systeme autonom, sondern werden teilweise weiterhin bewusst von Menschen gesteuert (z.B. intelligente Prothesen).

  • Beschreibt nach der normierten Einteilung der Automatisierungsstufen von Fahrzeugen die höchste Stufe „fahrerlos“: Dabei übernimmt das System die Aufgaben des Fahrers in vollem Umfang, auf allen Straßentypen sowie in allen Geschwindigkeitsbereichen und Umfeldbedingungen.

  • B
  • Modelle des maschinellen Lernens, die mit Hilfe von Deep Learning (z. B. Transformer) auf umfangreichen Datensätzen (z.B. Text, Bilder, Videos) aus Internet, Social Media oder anderen Quellen vortrainiert wurden. Hierfür benötigen Basismodelle derzeit eine hohe Rechenleistung. Charakteristisch für Basismodelle sind u.a. ihre Wiederverwendbarkeit und Anpassungsfähigkeit für spezifische Aufgaben und Domänen (siehe: Finetuning). Ein weiteres Kennzeichen ist, dass nach dem Trainieren Fähigkeiten des Modells entdeckt werden, an die zuvor nicht explizit gedacht wurde (sog. Emergenz). Basismodelle können sowohl Sprachmodelle als auch multimodale Modelle sein. Basismodelle bilden die Grundlage für viele Anwendungen, die auf generativer KI beruhen, wie Chatbots oder Bild- und Videogeneratoren. Bekannte Basismodelle sind etwa GPT-4 (Open AI), Llama (Meta) oder Gemini (Google). Der Begriff “Foundation Models” wurde 2021 vom Stanford Institute for Human-Centered Artificial Intelligence’s (HAI) geprägt.

  • Datenmengen, die sich auszeichnen durch ihr Volumen (Volume), die Vielfalt der Datentypen und Quellen (Variety), die Geschwindigkeit, mit der sie anfallen (Velocity) sowie die Unsicherheit bezüglich der Qualität der Daten (Veracity). Oft handelt es sich dabei um größtenteils unstrukturierte Daten, die etwa von sozialen Netzwerken oder mobilen Geräten stammen (IoT). Ein weiterer Aspekt von Big Data umfasst die Lösungen und Systeme, die dabei helfen, mit diesen Datenmengen umzugehen, um darin beispielsweise neue Muster und Zusammenhänge zu erkennen.

  • Black-Box-Modelle des maschinellen Lernens sind Modelle rein statistischer Art. White-Box-Modelle dagegen bezeichnen analytische und physikalische Beschreibungen, deren Modellierung meist sehr aufwändig ist. Bei Grey-Box-Modellen kombiniert man beide Ansätze, um die jeweiligen Vorteile zu vereinen (aus: Maschinelles Lernen/Fraunhofer 2018).

  • Computerprogramm, das weitgehend automatisch wiederkehrende Aufgaben abarbeitet. Beispiele, die vom maschinellen Lernen profitieren könnten, sind Chatbots, Social Bots und Gamebots (aus: Maschinelles Lernen/Fraunhofer 2018).

  • C
  • Virtuelle Dialogsysteme, die zunehmend im Kundenservice und für Benutzerschnittstellen im Allgemeinen eingesetzt werden. Über eine Textein- und Textausgabemaske (z.B. ein Dialogfenster auf einer Website) kommunizieren sie in natürlicher Sprache mit dem Menschen. Durch Methoden des maschinellen Lernens können Chatbots aus Eingaben ständig dazu lernen – um etwa die Stimmlage des Menschen zu interpretieren oder personalisierte Antworten zu geben.

  • CPU (Central Processing Unit, deutsch: zentrale Prozessoreinheit) ist der Hauptprozessor eines Computers, der für die Berechnung und Steuerung aller wichtigen Vorgänge, Anfragen sowie Ein- und Ausgaben des Computers zuständig ist (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • In Cyber-physischen Systemen sind mechanische Komponenten, Software und moderne Informationstechnik über Netzwerke (z.B. das Internet) miteinander verbunden. Dies ermöglicht es, die Infrastrukturen zu steuern, regeln und kontrollieren und erlaubt einen Informationsaustausch in Echtzeit. Einsatzgebiete sind zum Beispiel die Produktfertigung und das autonome Fahren (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • D
  • Einsatz von Methoden der Statistik oder des maschinellen Lernens, um neue Zusammenhänge und Muster in einer Datenmenge aufzuspüren. Ziel ist es beispielsweise, Empfehlungen für Entscheidungen zu geben oder Vorhersagen zu treffen. Genutzt werden dazu beispielsweise Clusteranalysen, Entscheidungsbäume, aber auch künstliche neuronale Netze.

  • Gewinnung von Wissen aus Daten. Data Science bildet dabei die gesamte „Daten-Wertschöpfungskette“ ab: von der Erhebung und Aufbereitung über die Modellbildung, die auch mit Hilfe von Methoden des maschinellen Lernens erfolgt, bis zur Anwendung der Modelle, etwa für die Unterstützung von Entscheidungen.

  • Verfahren zum Entfernen oder Korrigieren von Datenfehlern wie Dopplungen, Formatierungsfehlern oder fehlerhaften, unvollständigen Datensätzen in Datenbanken (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • Methode des maschinellen Lernens in künstlichen neuronalen Netzen. Diese umfassen mehrere Schichten – typischerweise eine Eingabe- und Ausgabeschicht sowie mehr als eine „versteckte“ dazwischenliegende Schicht. Die einzelnen Schichten bestehen aus einer Vielzahl künstlicher Neuronen, die miteinander verbunden sind und auf Eingaben von Neuronen aus der jeweils vorherigen Schicht reagieren. In der ersten Schicht wird etwa ein Muster erkannt, in der zweiten Schicht ein Muster von Mustern und so weiter. Je komplexer das Netz (gemessen an der Anzahl der Schichten von Neuronen, der Verbindungen zwischen Neuronen sowie der Neuronen pro Schicht), desto höher ist der mögliche Abstraktionsgrad – und desto komplexere Sachverhalte können verarbeitet werden. Angewendet wird Deep Learning bei der Bild-, Sprach- und Objekterkennung sowie dem verstärkenden Lernen.

  • Täuschend echt wirkende Bild-, Audio- oder Videoaufnahmen, die mithilfe von Deep Learning – also dem maschinellen Lernen mit tiefen neuronalen Netzwerken – erzeugt oder so manipuliert werden, dass Inhalte oder auftretende Personen verfälscht werden. Die Methoden sind vielfältig: Personen können in einen beliebigen Kontext gesetzt werden, Stimmen imitiert oder neu erschaffen werden, gehaltene Reden lippensynchron abgeändert werden. Mit der technologischen Entwicklung wird es zunehmend schwierig, Deepfakes unmittelbar als solche zu erkennen. Der Begriff ist ein englisches Kofferwort aus den Begriffen „Deep Learning“ und „Fake“.

  • E
  • Edge AI fokussiert darauf, KI-Modelle auf Geräten am Rande (Edge) des Kommunikationsnetzwerkes einzusetzen (z. B. Laptops, Mobiltelefone, Sensoren), um Daten dort lokal zu verarbeiten. Edge AI kann verteilt (distributed) oder auf einem Rechnerknoten (undivided, as a whole) ausgeführt werden und bietet damit eine Alternative zu zentralisierten, cloud-basierten KI-Systemen. Edge AI bietet Chancen für Sicherheit, Privatsphäre und Vertrauen in KI-Anwendungen, kann aber zugleich neue Herausforderungen in diesen Bereichen mit sich bringen. Da Edge AI meist in ressourcenbeschränkten Geräten umgesetzt wird, gilt es als (energie-)effiziente KI-Variante.

  • Da KI oft einen großen Raum möglicher Lösungen durchsuchen muss, ist die effiziente Gestaltung von Suchalgorithmen ein wichtiger Bestandteil von KI. Beispiele für effiziente Suchalgorithmen sind beispielweise A* oder die Monte-Carlo-Baumsuche, die etwa beim verstärkenden Lernen eingesetzt werden kann (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • (Englisch: Embedded System). Ein Computersystem, das in komplexe mikroelektronische bzw. mechatronische Systeme (Geräte, Anlagen und Maschinen etc.) eingebettet ist. Meist führt es eine einzelne Aufgabe aus, wie etwa die interaktive Steuerung bzw. Regelung des Systems. Eingebettete Systeme werden vielseitig eingesetzt, u.a. in Haushaltsgeräten oder in der Automatisierungstechnik (Prozessregelung, Robotik, Bluetooth etc.) (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • Beim Ende-zu-Ende-Lernen werden alle nötigen Zwischenschritte von Eingabe zu Ausgabe innerhalb eines Modelles integriert (aus: Maschinelles Lernen/Fraunhofer 2018).

  • Black-Box-Modelle, wie insbesondere tiefe künstliche neuronale Netze, sind für Menschen nicht nachvollziehbar. Die erklärbare KI sucht nach Möglichkeiten, die versteckte Logik oder die einzelnen Ausgaben besser nachvollziehbar oder erklärbar zu machen (aus: Maschinelles Lernen/Fraunhofer 2018).

  • Computerprogramm, das Wissen zu einem speziellen Gebiet repräsentiert, anreichert und daraus zu einem konkreten Problem automatisch Schlussfolgerungen ziehen kann. Dazu muss das Expertenwissen in Form von Fakten und Regeln (Wenn-Dann-Aussagen) formalisiert und eingegeben werden. In einem wissensbasierten Expertensystem lässt sich auch heuristisches Wissen formulieren und – je nach der zu Grunde liegenden Logik – auch unsicheres Wissen.

  • F
  • Siehe hierzu verteiltes maschinelles Lernen

  • Maschinen, Roboter und Softwaresysteme, die durch den Menschen aus der Ferne gesteuert und häufig für Arbeiten in lebensfeindlichen Umgebungen eingesetzt werden. Sie sind zu unterscheiden von Assistenzsystemen, automatisierten Systemen und autonomen Systemen

  • Erneutes Trainieren eines vortrainierten KI-Modells mit eigenen Daten, etwa aus einer spezifischen Anwendungsdomäne. Als Ergebnis des Finetunings werden die Gewichte des ursprünglichen Modells aktualisiert, um die Eigenschaften der Domänendaten und der spezifischen Aufgabe, die von Interesse sind, zu berücksichtigen. Da es mit zunehmender Modellgröße und Aufgabenbreite ineffizient wird, die Gewichte allgemein zu aktualisieren, wurden sogenannte Parameter-effiziente Varianten entwickelt wie etwa Adapter-Module, die zwischen Schichten des Transformers eingefügt werden.

  • G
  • Beim gegnerischen Lernen wird versucht, ein Modell durch Lernen mit sogenannten gegnerischen Beispielen (adversarial examples) robuster gegenüber Angriffe zu machen. Die Beispiele sind absichtlich gestört, um gezielt falsche Ergebnisse herbeizuführen (aus: Maschinelles Lernen/Fraunhofer 2018).

  • Neuronale Netzarchitektur, die aus zwei Netzwerken (Diskriminator, Generator) besteht und zum unüberwachten Lernen gehört. Ziel ist, dass der Generator aus Trainingsdaten neue Daten erstellt, die vom Diskriminator nicht von den Trainingsdaten zu unterscheiden sind. Diese Architektur wird im Deep Learning beispielsweise angewendet, wenn eine hohe Anzahl an Trainingsdaten benötigt wird. In der Anwendung kann diese Architektur beispielsweise eigene Bilder aus einer Textbeschreibung erzeugen oder 3D-Modelle erstellen (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • KI-Systeme, die mit großen Datensätzen trainiert wurden und in der Lage sind, Inhalte zu erzeugen (z. B. Text, Programmcode, Videos, Bilder, Proteinstrukturen, Bauteile). Sie stützen sich dabei auf große Rechenleistung und spezielle Algorithmen, die unter anderem auf dem so genannten Transformer-Modell basieren. Die Anwendungsbereiche generativer KI-Systeme sind breit, zu den bekanntesten Systemen zählt das Ende 2022 veröffentlichte Sprachmodell ChatGTP (Open AI) sowie BARD (Google) und LLaMA (Meta).

    Im Fall von ChatGPT erfolgt das Training der generativen KI in einem mehrstufigen Prozess auf Basis von Deep Learning und anderen Lernmethoden wie folgt:

    • Der Transformer lernt auf Grundlage von Wahrscheinlichkeiten vorherzusagen, welches Wort auf die vorangehende Wortfolge folgt. Das KI-System lernt hier selbstüberwacht – und benötigt keine von Menschen vorgenommene Datenetikettierung (Labeling).
    • Menschen erstellen idealtypische Texte für bestimmte Arbeitsanweisungen und vermitteln dem KI-System so, welche Texte erwünscht sind. Dann stellen Menschen Anfragen und ordnen die Antworten der KI gemäß ihrer Qualität in Rangfolgen an.
    • Auf dieser Basis lernt das KI-System, seine eigenen Ausgaben zu bewerten und sich für gute Ausgaben zu belohnen (verstärkendes Lernen). So nähert es sich den Qualitätsansprüchen des Menschen an und verbessert sich stetig.

    Neben Wörtern können generative KI-Systeme auch Pixel, Töne, Programm- oder DNA-Code verarbeiten.

  • GPU (Graphics Processing Unit; deutsch: Grafikprozessor) ist ein Prozessor, der auf die Berechnung von Grafiken und Bilddaten spezialisiert und optimiert ist. Er wird in Computern, Servern, Smartphones, Spielekonsolen und Tablets eingesetzt. Grafikprozessoren finden häufig Anwendung bei Deep Learning, weil ihre Architektur die Beschleunigung dieser Lernverfahren erlaubt (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • H
  • nutzt sowohl menschliches Wissen als auch gesammelte Daten, um KI-Systeme zu entwickeln und kombiniert dazu wissensbasierte Herangehensweisen mit datengetriebenen Verfahren des maschinellen Lernens. So versucht hybride KI etwa durch die Verbindung von symbolisch- und subsymbolischen Modellen, das Beste aus den beiden Welten zu vereinen: Neuronale Netze behalten im Idealfall ihre Trainierbarkeit und Effektivität bei teils fehlerhaften Datensätzen bei. Wissensbasierte Komponenten ermöglichen Erklärbarkeit und die einfache Integration von explizitem menschlichem Wissen. Zur hybriden KI zählen u.a. Ansätze neurosymbolischer KI. Mehr unter KI Kompakt – Hybride KI.

  • I
  • Interaktion ist ein Forschungsfeld der KI, das sich mit multimodalen und -medialen, benutzerorientierten Modellierungen von Anwendungen beschäftigt. Ziel ist es, eine möglichst weitreichende Kommunikation zwischen Mensch und Maschine zu ermöglichen.

  • Zunehmende Vernetzung von Werkzeugen, Geräten, Sensoren, Fahrzeugen etc. durch eingebaute Computersysteme sowie die Vergabe von eindeutigen digitalen Kennungen (IP-Adresse). Mit Hilfe ihrer Sensoren erheben die vernetzten Geräte Daten, die sie untereinander sowie über das Internet austauschen und zur Verfügung stellen können.“ Dadurch entstehen extrem große Datenmengen (Big Data), die wiederum Grundlage für Lernende Systeme darstellen können.

  • K
  • Siehe hierzu Artificial Intelligence Act (AI Act)

  • Zu den klassischen oder traditionellen Lernverfahren gehören symbolische Verfahren und ältere statistische Verfahren. Nicht dazu zählen Verfahren für tiefe neuronale Netze (aus: Maschinelles Lernen/Fraunhofer 2018).

  • Sammlung von Daten und Algorithmen, aus denen durch Methoden der Künstlichen Intelligenz Informationen abgeleitet werden.

  • Eine allgemein akzeptierte Definition zu Künstlicher Intelligenz (KI) gibt es nicht. KI ist zum einen ein Teilgebiet der Informatik, das versucht, mit Hilfe von Algorithmen kognitive Fähigkeiten wie Lernen, Planen oder Problemlösen in Computersystemen zu realisieren. Begründet wurde der Begriff Artificial Intelligence im Zuge des Dartmouth Workshops (1956), der auch heute noch die moderne KI-Forschung prägt. Das internationale Standardlehrbuch für Künstliche Intelligenz von Russel/Norvig behandelt folgende Forschungsfelder:

    • Problemlösen
    • Wissensrepräsentation und Schlussfolgern
    • Unsicherheit und Schlussfolgern
    • Maschinelles Lernen
    • Wahrnehmung und Sehen
    • Verstehen und Generieren von natürlicher Sprache
    • Interaktion
    • Robotik

    Der Begriff KI steht zugleich für Systeme, die ein Verhalten zeigen, für das gemeinhin menschliche Intelligenz vorausgesetzt wird. Ziel moderner KI-Systeme (Lernende Systeme) ist es, Maschinen, Roboter und Softwaresysteme zu befähigen, abstrakt beschriebene Aufgaben und Probleme eigenständig zu bearbeiten und zu lösen, ohne dass jeder Schritt vom Menschen programmiert wird. Dabei sollen sich die Systeme auch an veränderte Bedingungen und ihre Umwelt anpassen können. In diesem Sinne schafft Künstliche Intelligenz die Voraussetzungen für Lernende Systeme.

    Die Lernfähigkeit der Systeme wurde bereits zu Beginn der KI-Forschung als grundlegende kognitive Fähigkeit definiert. Es ist jedoch schwierig, abschließend zu bestimmen, was als „intelligent“ gilt. Abhängig vom jeweiligen Stand der Technik entwickelte sich daher stets das Verständnis darüber weiter, was als KI bezeichnet wird.

     

     

  • Modelle des maschinellen Lernens, die durch Aspekte des menschlichen Gehirns motiviert wurden. Sie bestehen aus in Software realisierten Schichten von Knoten, die als künstliche Neuronen bezeichnet werden. Die einzelnen Verbindungen zwischen den Neuronen haben eine numerische Gewichtung, die während des Trainingsprozesses angepasst wird, so dass die Ergebnisse immer besser werden. Von Schicht zu Schicht entstehen dabei immer abstraktere Repräsentationen der Eingabe, so dass bei einer sehr hohen Anzahl von Schichten (Deep Learning) sehr komplexe Muster abgebildet und erkannt werden können. 

  • L
  • Etikettierung von Daten durch Zuordnung von Zusatzinformationen zu Text-, Bild-, Videodaten usw. Das Labeling dient als Grundlage für das Training von KI-Modellen bei Verfahren wie dem überwachten Lernen oder beim Optimieren von KI-Modellen entlang menschlicher Präferenzen und Rückmeldungen (Reinforcement Learning Human Feedback, siehe verstärkendes Lernen).

  • Sie hierzu Sprachmodelle

  • Lernende Systeme sind Maschinen, Roboter und Softwaresysteme, die abstrakt beschriebene Aufgaben auf Basis von Daten, die ihnen als Lerngrundlage dienen, selbstständig erledigen, ohne dass jeder Schritt spezifisch vom Menschen programmiert wird. Um ihre Aufgabe zu lösen, setzen sie von Lernalgorithmen trainierte Modelle ein. Mit Hilfe des Lernalgorithmus können viele Systeme im laufenden Betrieb weiterlernen: Sie verbessern die vorab trainierten Modelle und erweitern ihre Wissensbasis.

    Lernende Systeme basieren auf Methoden der Künstlichen Intelligenz (KI), genauer: des maschinellen Lernens. Vor allem durch die Fortschritte im Deep Learning entwickelten sich Lernende Systeme in den letzten Jahren zum dynamischsten Bereich der KI-Forschung und -Anwendung

  • M
  • beziehen die Development Operations (DevOps) auf das maschinelle Lernen mit dem Ziel, maschinelles Lernen, Softwareentwicklung und den laufenden Betrieb der Systeme zusammenzubringen. Angestrebt wird insbesondere eine effiziente, zuverlässige und qualitativ hochwertige Gestaltung der Entwicklung, Bereitstellung, Verwaltung und Überwachung von KI-Modellen.

  • Kommunikation zwischen zwei Maschinen.

  • Maschinelles Lernen ist eine grundlegende Methode der Künstlichen Intelligenz (KI). Sie zielt darauf, dass Maschinen ohne explizite Programmierung eines konkreten Lösungswegs automatisiert sinnvolle Ergebnisse liefern. Spezielle Algorithmen lernen aus den vorliegenden Beispieldaten Modelle, die dann auch auf neue, zuvor noch nicht gesehene Daten angewendet werden können. Dabei werden drei Lernstile unterschieden: überwachtes Lernen, unueberwachtes Lernen und verstärkendes Lernen. Maschinelles Lernen mit großen neuronalen Netzen wird als Deep Learning bezeichnet. Maschinelle Lernverfahren kommen zum Einsatz beim Data Mining, beim Generieren von Smart Data und in praktisch allen modernen KI-Systemen.

  • Austausch von Aktionen und Informationen zwischen Mensch und Maschine über eine Mensch-Maschine-Schnittstelle (User Interface). Gute Schnittstellen sollten an menschliche Bedürfnisse und Fähigkeiten angepasst sein, um eine gute Benutzbarkeit (Usability) bzw. eine hohe Nutzerzufriedenheit (User Experience)  zu erreichen. Dem Design dieser Schnittstellen widmen sich verschiedene Wissenschaften wie die Informatik, die Kognitionswissenschaften oder die Psychologie.

  • (Englisch: Feature Selection): Prozess, bei dem automatisch oder manuell die wichtigsten Merkmale ausgewählt werden. Irrelevante Merkmale in den Daten können die Genauigkeit der Modelle verringern und dazu führen, dass Modelle sich auf irrelevante Merkmale fokussieren (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • (Deutsch: Monte-Carlo-Baumsuche): Ein Suchalgorithmus, der versucht, mit geringem Rechenaufwand und kurzer Laufzeit Lösungen zu finden. Bei der Monte-Carlo-Methode wird versucht, sich mit vielen zufälligen Verzweigungen in der Suche der Lösung eines Problems anzunähern. Je höher die Anzahl der zufälligen Verzweigungen ist, desto präziser ist auch das Ergebnis. Diese Methode kann Anwendung finden, wenn eine genaue Berechnung einer Lösung unmöglich oder sehr aufwendig ist (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • KI-Modelle, die auf einem Datensatz trainiert werden, der verschiedene Modalitäten (z.B. Text, Bild, Ton, Programmcode, Video) enthält. Durch deren Verknüpfung lassen sich bessere Ergebnisse erzielen und neue Aufgaben (z.B. Text-zu-Bild oder Text-zu-Code) erledigen. Die Integration von Daten aus verschiedenen Modalitäten kann komplex sein. Da Daten unterschiedliche Formate, Skalen und Bedeutungen haben können, sind spezielle Techniken der Datenkuratierung und -verarbeitung erforderlich, um qualitativ hochwertige, kohärente und nützliche Ergebnisse zu erzielen. GPT-4 ist ein multimodales KI-Modell, das sowohl Text als auch Bilder verarbeiten kann.

  • Beim multimodalen Lernen werden Eingabesignale von unterschiedlichen Quellen (wie Audio- und Bildsignale) herangezogen und in Zusammenhang gebracht, um darauf aufbauend eine passenden Aktion zur Bewältigung der Aufgabe abzuleiten (aus: Maschinelles Lernen/Fraunhofer 2018).

  • Beim Multitask-Lernen wird versucht, verschiedene Aufgaben gleichzeitig auf einer gemeinsamen internen Repräsentation zu lernen, die dadurch tragfähiger wird (aus: Maschinelles Lernen/Fraunhofer 2018).

  • O
  • Fähigkeit von Systemen, anhand weniger Beispiele einer Klasse oder ausschließlich durch die Kombination bekannter Beispiele anderer Klassen zu lernen.

  • Ein traditionelles Lernverfahren erstellt ein Modell aus statischen Eingabedateien. Bei neuen Trainingsdaten muss der Trainingsprozess des Modells von Grund auf neu gestartet werden. Es ist nicht in der Lage, sich in Echtzeit auf Verhaltensänderungen anzupassen. Demgegenüber kann ein Online-Lernverfahren ein Modell durch neue Trainingsdaten laufend anpassen, ohne den Trainingsprozess von Grund auf neu zu beginnen. Dies ist für viele Szenarien relevant, etwa bei sehr sensiblen oder personenbezogenen Trainingsdaten, die nicht offline verarbeitet werden dürfen (Gesundheitswerte) oder bei Datenströmen, die aufgrund ihrer Größe nicht gespeichert werden können (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • Das Online-Lernen kommt ohne die konventionelle Einteilung in Trainingsdaten für die Modellentwicklung und Testdaten für die Modellbewertung aus. Online Lernen funktioniert also in Echtzeit und auf Datenströmen, die nicht abgespeichert werden.

  • P
  • Das zielorientierte Problemlösen ist ein Forschungsfeld der KI. Bestimmte Aufgaben (z.B. Schach, Stundenplan, Tic-Tac-Toe) lassen sich durch eine Reihe von Aktionen beschreiben, die zu einem gewünschten Ziel führen. Jede Aktion ändert den aktuellen Zustand. Ziel ist es, eine Reihenfolge der Aktionen und Zustände zu finden, die vom Anfangs- zum gewünschten Endzustand führt.

  • Anfragen an ein Sprachmodell werden als Prompt bezeichnet. Prompt Engineering beschreibt systematische Vorgehensweisen, um Anfragen so zu gestalten, dass sie zu optimalen Ergebnissen führen. Auf diese Weise kann das Modell effektiv für spezifische Aufgaben angepasst werden, ohne dass ein Finetuning oder Nachtrainieren des Modells notwendig wird.

  • R
  • Entwicklung von Regeln und Standards für KI, die festlegen, wie KI-Systeme entwickelt, eingesetzt und überwacht werden sollten. Dies umfasst sowohl die Normung und Standardisierung durch Initiativen oder Verbände als auch eine staatliche Regulierung. Die normative Ausrichtung einer staatlichen Regulierung kann in verschiedenen Ländern variieren. Ziel des AI Acts der EU ist es, den Einsatz von KI-Systemen sicher und vertrauenswürdig zu machen, ohne Innovationen zu hemmen.

  • Oberbegriff für eine Gruppe von Netzwerkarchitekturen für zeitlich geordnete Daten. Solche Netzwerke haben eine Gedächtnisfunktion. Diese wird umgesetzt, indem Neuronen einer Schicht, die Aktivierung dieser Neuronen zu einem vorangegangenen Zeitpunkt berücksichtigen. Dadurch ist es möglich, Informationen bzw. Daten aus zeitlich weit auseinanderliegenden Beobachtungen im Training mit zu berücksichtigen. Die Architekturform eignet sich primär für die Analyse sequentieller Daten, wie etwa Sprache, Text oder Zeitreihendaten (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • Unterbereich des maschinellen Lernens, der Anwendung findet, wenn Beziehungen zwischen Entitäten im Fokus stehen. Ein Beispiel ist die Modellierung eines sozialen Netzwerks. Eine besondere Bedeutung erhält das relationale Lernen durch die weite Verbreitung relationaler Datenbanken wie etwa in der Industrie. Eine moderne Repräsentation relationaler Daten sind Wissensgraphen (Knowledge Graphs). Relationales Lernen kommt zur Anwendung in der Textverarbeitung, Medizin, Robotik und Analyse von sozialen Netzwerken (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • Repräsentationen sind Darstellungen der Daten, die in subsymbolischen Modellen aus vielen Zahlenwerten bestehen. Beispielsweise kann das Bild eines Gesichtes durch alle Pixelwerte repräsentiert werden, oder durch die Angabe von Ort und Größe von Auge, Nase, Mund, usw. Beim Repräsentationslernen werden durch Transformation der Eingabe kompaktere Repräsentationen gelernt, die die eigentliche Lernaufgabe erleichtern (aus: Maschinelles Lernen/Fraunhofer 2018).

  • Der Begriff Roboter leitet sich ab vom tschechischen Wort für Arbeiten, „robota“. Ein Roboter ist ein System, dass dem Menschen Arbeit abnimmt. Allerdings werden nur solche Maschinen als Roboter bezeichnet, die physische Arbeit verrichten. Zur Steuerung von Robotern werden immer häufiger Lernende Systeme eingesetzt. Robotik ist ein Forschungsfeld der KI mit dem Ziel, Roboter zu entwickeln, die mittels Algorithmen autonom mit der physischen Welt interagieren.

  • S
  • Systeme, die in einem spezifischen, eng definierten Kontext intelligent agieren und dort sogar menschliche Fähigkeiten übersteigen können. Beispiele für spezifische Anwendungen sind Strategiespiele wie Schach und Go oder Produktempfehlungen sowie medizinische Diagnosen. Sämtliche heute verfügbare Künstliche Intelligenz ist als schwache KI zu definieren. Das Gegenmodell ist die starke KI.

  • Prinzipien, die darauf abzielen, dass schon in der Entwicklungsphase eines (KI-)Systems sowohl bei der Software als auch bei der Hardware auf Sicherheitsanforderungen geachtet wird, um dadurch künftige Angriffsflanken zu vermeiden. Während das Security-by-Design dabei auf die Kriminalitätsprävention zielt, steht beim Safety-by-Design die Unfallprävention im Mittelpunkt.

  • Fähigkeit von autonomen Systemen, sich an die Umgebung oder das Verhalten von Menschen anzupassen und eigene Aktionen zu korrigieren. Unterstützt wird die Selbstregulation durch Wahrnehmung und Interpretation, Planung und Planerkennung, Lernen und Schlussfolgern sowie Kommunikation und Kollaboration. Neben Aktorik und Sensorik ist Selbstregulation eine der drei Hauptkomponenten von autonomen Systemen.

  • Beruht auf dem Lernprozess des überwachten Lernens und auf der gleichen Architektur wie tiefe künstliche neuronale Netze. Während beim überwachten Lernen jedoch die Kennzeichnung von Trainingsdaten (Data Label) manuell vorgegeben werden, werden diese beim Self Supervised Learning automatisch von der Anwendung generiert (aus: Whitepaper der AG1/Maschinelles und Tiefes Lernen: Der Motor für “KI made in Germany”).

  • Technische Bauteile, die bestimmte physikalische oder chemische Eigenschaften und/oder die stoffliche Beschaffenheit ihrer Umgebung erfassen und in elektrische Signale umformen können. Neben Aktorik und Selbstregulation ist die Sensorik eine der drei Hauptkomponenten von autonomen Systemen.

  • Datenbestände, die mit Hilfe von Algorithmen/Lernalgorithmen aus sehr großen Datenmengen (Big Data) extrahiert wurden und sinnvolle Informationen enthalten.

  • Softwaresysteme, die als menschenähnliche Akteure mit Menschen auf digitalen Plattformen kommunizieren. Sie werden vor allem in sozialen Netzwerken und Chat-Programmen eingesetzt. Social Bots basieren zunehmend auf Lernenden Systemen.

  • Ein Computerprogramm, das selbstständig Aufgaben in einer virtuellen Umgebung ausführt. Es archiviert z.B. Dateien oder indexiert Webseiten (Web Bot). Das Programm nimmt dazu Informationen auf, analysiert sie und interagiert mit anderen Programmen oder auch mit Menschen (Chat Bot bzw. Social Bot).

  • Softwaresysteme, die mittels Spracherkennung und -analyse die Anweisungen des Anwenders aufnehmen und so eine intuitive Schnittstelle bilden (Mensch-Maschine-Interaktion). Fortschrittliche Sprachassistenten können Fragen beantworten und Dialoge führen. Sie werden häufig als Intelligenter Persönlicher Assistent (IPA) bezeichnet.

  • KI-Modelle, die mit maschinellen Lernverfahren auf Textdatensätzen trainiert wurden, beispielsweise mit Transformern oder rekurrenten neuronalen Netzwerken. Solche Modelle sagen z.B. basierend auf Wahrscheinlichkeiten voraus, welche Wörter auf eine vorhandene Reihe an Wörtern folgt. Moderne Sprachmodelle werden oft als große Sprachmodelle (engl. Large Language Models) bezeichnet, da sie sehr große Parameterzahlen aufweisen und auf umfangreichen Textdaten trainiert wurden. Solche Modelle erkennen, produzieren, übersetzen und verarbeiten natürliche Sprache und können für eine Vielzahl von Aufgaben eingesetzt werden – etwa das Erstellen und Zusammenfassen von Text, das Beantworten von Fragen, das Generieren von Programmcode und vieles mehr. Aufgrund ihrer Einsatzbreite gelten große Sprachmodelle wie GPT 4, Gemini, Claude oder Mistral als Schlüsseltechnologie der Künstlichen Intelligenz. Große Sprachmodelle werden auch als Basismodelle bzw. Foundation Models bezeichnet, wenn sie an bestimmte Zwecke und Aufgaben angepasst werden können.

  • Hypothetische KI-Systeme, die mindestens über menschenähnliche Intelligenzleistung in allen Bereichen und nicht nur in eng definierten Anwendungsfeldern (schwache KI) verfügen. Eine Künstliche Superintelligenz wäre dem intelligentesten Menschen weit überlegen und wird damit als ein Kernelement für die Realisierung der technologischen Singularität gesehen.

  • In subsymbolischen Modellen wie künstlichen neuronalen Netzen sind die Merkmale der Beispiele und die erlernten Zusammenhänge in vielen Zahlen versteckt, die keinen Einblick in die erlernten Lösungswege erlauben (aus: Maschinelles Lernen/Fraunhofer 2018).

  • In symbolischen Modellen sind die Merkmale der Beispiele und die erlernten Zusammenhänge explizit und nachvollziehbar repräsentiert. Beispiele sind logische Regeln, Entscheidungsbäume und Wissensgraphen (aus: Maschinelles Lernen/Fraunhofer 2018).

  • T
  • Spezielle Architektur des maschinellen Lernens mit mehreren Schichten von künstlichen neuronalen Netzwerken (Deep Learning), um Beziehungen und Kontexte in sequenziellen Daten nachzuvollziehen. Transformer-Architekturen bilden etwa bei Sprachmodellen die Grundlage für die mathematische Abbildung der Beziehung zwischen Wörtern und ihren Kontexten. Zuerst werden Wörter in Vektoren (sog. Embeddings) umgewandelt, die ihre Bedeutung darstellen. Durch die Anordnung der Vektoren lassen sich Ähnlichkeiten zwischen Wörtern messen: Ähnliche Wörter haben ähnliche Vektordarstellungen. Sprachmodelle lernen so Repräsentationen für Prozesse zur Erzeugung von Sprache. Die obersten Schichten strukturieren somit den Vektorraum in ähnliche Dinge bzw. auch Beziehungen. Diese Schichten haben gelernt, welche generellen Sprachprozesse zur Erzeugung dieser Repräsentationen führten.

    Innerhalb der Transformer werden zwei Haupttypen unterschieden: 1) Autoregressive Modelle (z.B. GPT-3.5, BARD, LLaMA, Vicuna) werden trainiert, indem sie die Wahrscheinlichkeit für das Auftreten eines Wortes auf Basis aller zuvor aufgetretenen Wörter ermitteln. 2) Bidirektionale Modelle (z. B. BERT) werden darauf trainiert, Wörter durch ihren gesamten textlichen Kontext – also sowohl vor als auch nach dem jeweiligen Wort – vorherzusagen.

  • Philosophisches Gedankenexperiment, das eine Dilemma-Situation beschreibt, in der beide Wahlmöglichkeiten zu einem unerwünschten Ergebnis führen. Ein typischer Fall: Eine führerlose Straßenbahn (engl.: trolley) rast auf fünf am Gleis festgekettete Menschen zu und kann nicht gestoppt werden. Durch die aktive Umstellung einer Weiche könnte die Bahn auf ein anderes Gleis umgeleitet werden, an das eine Person angekettet ist. Ziel ist es, (trotz geringer Wahrscheinlichkeit derartiger Fälle) zum Nachdenken über ethische Dilemmata anzuregen.

  • Vom britischen Mathematiker Alan Turing entwickelter Test, um festzustellen, ob eine Maschine als intelligent zu bewerten ist. Ein menschlicher Fragesteller kommuniziert dabei über eine Tastatur mit einem menschlichen Gesprächspartner und einer Maschine. Kann er am Ende nicht sagen, welcher Gesprächspartner die Maschine ist, gilt diese als intelligent.

  • Ü
  • Lernalgorithmen, die als Trainingsmaterial neben Rohdaten auch die erwarteten Ergebnisse erhalten. Weicht die Ausgabe des trainierten Modells vom gewünschten Ergebnis ab – wenn beispielsweise eine Tulpe als Rose identifiziert wird – passt der Lernalgorithmus das Modell an. Ziel ist es, dem Netz durch unterschiedliche Ein- und Ausgaben die Fähigkeit anzutrainieren, selbst Verbindungen herzustellen.

  • U
  • Dieses Forschungsfeld der KI befasst sich mit dem Umfang von Unsicherheiten, etwa durch probabilistische Modelle oder Entscheidungstheorie.

  • Lernalgorithmen, die in künstlichen neuronalen Netzen, bei dem kein Prognoseziel vorgegeben ist, nur die Rohdaten erhalten. Sie erzeugen ein Modell, das die Eingaben abstrakt beschreibt und Vorhersagen ermöglicht. Das Netz erstellt dann selbständig Klassifikatoren, nach denen es die Eingabemuster einteilt. Ziel ist es, in einem Datensatz interessante und relevante Muster zu erkennen oder die Daten kompakter zu repräsentieren.

  • V
  • Prozess, bei dem ein Lernendes System Entscheidungen trifft, auf deren Basis es anschließend handelt. Dazu verwendet es einen Algorithmus der lernt, die Erfolgsaussichten der einzelnen Aktionen in den verschiedenen Situationen besser einzuschätzen. Für die gewählten Aktionen erhält es positives oder negatives Feedback. Ziel des Systems ist, möglichst viel positives Feedback zu erhalten. Beim Deep Reinforcement Learning werden dazu künstliche neuronale Netze als Modelle verwendet, die man erfolgreich in Spielen eingesetzt hat (z.B. Go, Poker, Atari). Für das Training und die Optimierung von generativen KI-Systemen wird verstärkendes Lernen auf Basis menschlicher Rückmeldungen (Reinforcement Learning from Human Feedback, RLHF) genutzt. Dabei handelt es sich um ein Verfahren, das auf Basis menschlicher Bewertungen von Modellausgaben Feedback für einen Algorithmus erstellt. Dieser passt das generative Modell so an, dass die Ausgaben näher an den menschlichen Präferenzen liegen.

  • Dieses Forschungsfeld der KI zielt darauf, eine möglichst weitreichende Kommunikation zwischen Mensch und Maschine zu ermöglichen. Dazu müssen letztere dazu befähigt werden, natürliche Sprache zu erfassen, zu verarbeiten, zu verstehen und auch zu generieren.

  • Prozess des Trainings von maschinellen Lernalgorithmen über mehrere Rechner oder Rechenressourcen hinweg. Ziel ist es, große Datensätze effizient zu verarbeiten und komplexe Modelle zu trainieren. Statt ein Machine Learning (ML)-Modell auf einem zentralen Server zu trainieren, greift jedes Endgerät (Client) auf das aktuelle ML-Modell zu und trainiert dieses lokal mit dem eigenen Datensatz. Um das ML-Modell zu aktualisieren und zu verbessern, werden nur die Trainingsergebnisse (sog. Weights), nicht aber die Daten mit anderen Endgeräten getauscht (siehe Edge AI und KI Kompakt).

  • Netzwerk von mehreren physikalischen Recheneinheiten, die jedoch als ein einzelnes System ausgeführt werden. Im Gegensatz zu zentralisierten Systemen bieten verteilte Systeme den Vorteil der Skalierbarkeit, da weitere Recheneinheiten zu dem Netzwerk hinzugefügt werden können.

  • W
  • Die Erkennung und Segmentierung von Objekten ist ein Forschungsfeld der KI. Die Fähigkeit, visuelle Informationen zu verarbeiten, ist eine Grundbedingung für viele automatisierte Prozesse. Mithilfe von Regeln und Algorithmen werden Bilder und andere sensorische Eingaben verarbeitet, interpretiert und auch generiert.

  • Siehe Expertensysteme

  • Ziel dieses KI-Forschungsfeldes ist es, Wissen über die Welt maschinenlesbar so darzustellen, dass ein System es für die Lösung komplexer Aufgaben nutzen kann – beispielsweise, um eine Diagnose zu einer Krankheit zu stellen oder einen Dialog in natürlicher Sprache zu führen.