Use Case

Schleifen, polieren, lackieren: Persönliche Roboter für Handwerkerinnen und Handwerker

Use Case im Überblick

Branche: Handwerk

Aufgabe: (Teil-)automatisierte Schleifarbeiten in der Einzel- und Kleinserienfertigung, um gesundheitliche Belastung zu minimieren, die Effizienz der Fertigungsprozesse sowie die Attraktivität des Handwerks zu steigern

Methode: Lernen durch Vormachen (Learning from Demonstration), bestärkendes Lernen (Reinforcement Learning) u. a.

Allgemeines

Die (teil-)automatisierte Oberflächenbearbeitung für die Einzel- und Kleinserienfertigung mit Robotern ist ein Bereich, der die gesundheitliche Belastung der Handwerkerinnen und Handwerker reduzieren und die Effizienz der Fertigungsprozesse sowie die Attraktivität des Handwerks steigern kann. Grundsätzlich kann die Bearbeitung von Oberflächen sowohl abtragende (Schleifen) als auch auftragende Aufgaben (Lackieren) umfassen. Der Use Case konzentriert sich auf Schleifarbeiten, wie sie beispielsweise bei der Herstellung von Cellokörpern oder im Modellbau anfallen.

Status quo

Im Gegensatz zum Einsatz von Robotern in der Serienfertigung (z. B. Pick and Place) wird der Oberflächenbearbeitung in der Einzel- und Kleinserienfertigung wenig Aufmerksamkeit geschenkt. Es existieren jedoch bereits einfache Lösungen zur geometriebasierten Bahnplanung und Steuerung mittels kraftsensitiver Endeffektoren (z. B. Gerät am Ende eines Roboterarms zum Schleifen oder Greifen). Für die automatisierte Offline-Bahnplanung werden teilweise bereits standardmäßig 3D-Scan- oder optische Systeme eingesetzt. Darüber hinaus gibt es erste Lösungen für die Mensch-Roboter-Interaktion (MRI) bei Industrierobotern oder Cobots: Roboterbewegungen können so durch manuelle Führung des Armes eins zu eins und Bewegung für Bewegung programmiert (Kinesthetic Teaching) oder über infrarot-technisch lokalisierbare Positioniergeräte realisiert werden. Trotz dieser niederschwelligen Verfahren wird das Potenzial des maschinellen Lernens hier nicht ausgeschöpft. So basiert das Teach-in auf Regelungstechnik. In der anwendungsnahen Forschung werden jedoch bereits Systeme entwickelt, die maschinelles Lernen für das Antrainieren von Schleiffähigkeiten nutzen.

Zukunftsperspektiven mit KI

Durch das Lernen durch Interaktion können Roboterfähigkeiten für die Oberflächenbearbeitung entwickelt, vermittelt und verbessert werden. Die Robotersysteme können vom handwerklichen Fachpersonal selbst mit entsprechender Software für geeignete Aufgaben spezialisiert und optimiert werden, ohne dass spezielle Programmierkenntnisse oder KI-Wissen erforderlich sind. Gerade im Handwerk sind die Kosten für die Roboterprogrammierung oft nicht realisierbar. No-Code-Lösungen sind daher notwendig, um die Produktivität zu steigern. Die Vision: ein Perspektivenwechsel von der Expertentechnologie hin zum Anwendenden, ähnlich dem Wechsel vom Großrechner zum Personal Computer (PC). Ziel ist der „persönliche Roboter“ für die Handwerkenden: Eine Handwerkerin oder ein Handwerker soll den Roboter wie einen Meisterschüler in handwerklichen Tätigkeiten ausbilden können. Im Sinne einer variablen Autonomie könnten Roboter zukünftig in der Interaktion mit dem Menschen immer mehr Fähigkeiten und damit höhere Autonomiegrade erreichen, sodass der Roboter bereits am Objekt erkennt, welche Aufgaben zu erledigen sind, und sich zur Freigabe oder bei Unsicherheiten an die Anwendenden wendet. Dabei steht jedoch nicht die (Teil-)Automatisierung im Vordergrund, sondern vor allem die Bereitstellung von Roboterwerkzeugen, die durch ihre Flexibilität und niedrige Einstiegshürde Raum für Kreativität lassen. So soll eine produktivere Einzel- und Kleinserienfertigung realisiert werden, die in der Lage ist, eine Vielzahl unterschiedlicher, zum Teil einzigartiger und komplexer Produkte herzustellen (high mix, low volume). Damit wird die Spezialisierung auf heutzutage als unrentabel geltende Tätigkeitsfelder attraktiv. Neue Geschäftsmodelle werden möglich.

Quellen des Lernens

  • Erfahrungswissen und Feedback der Anwendenden/ExpertInnen
  • Mensch-Roboter-Interaktion (MRI)
  • Beobachtung der Umgebung und Selbstbeobachtung bei der Oberflächenbearbeitung
  • Lernen von Fähigkeiten, die andere Roboter bereits erlernt haben (siehe Methoden des Lernens: Transfer Learning)

Benötigte Daten

Erforderlich ist eine multisensorische Wahrnehmung der Umgebung mit und ohne Bauteilkontakt sowie das Erkennen von Bearbeitungsklassen, z. B. Bewegungsabläufe für bestimmte Arbeitsschritte.

Dabei sind folgende Daten von Bedeutung:

  • Erfassung von Position und Kraft, Akustik, Beschleunigung, Geschwindigkeit etc. durch Sensoren und Zusammenführung solcher Daten (Data Fusion)
  • Erfassung von Prozess- und Interaktionsdaten (Daten, die während der Ausführung der Aufgabe oder durch Teach-in erfasst werden)
  • Visuelle Wahrnehmung, z. B. der Beschaffenheit des zu bearbeitenden Objekts (wie Kantenerkennung) über ein Vision-System
  • Sprachdaten, manuelle Korrekturen oder anderes menschliches Feedback

Methoden des Lernens

  • Lernen durch Vormachen (Learning from Demonstration, LfD), überwachtes Lernen (Supervised Learning, SL), bestärkendes Lernen (Reinforcement Learning, RL) oder auch interaktives Lernen durch Nachahmung (Interactive Imitation Learning, IIL)
  • Aktives Anlernen von Basisfähigkeiten und Bearbeitungsstrategien (allgemein und später aufgabenspezifisch) sowie Optimierung in der Anwendung durch zusätzliche 1:1-Demonstration oder RL-Strategien
  • Transferlernen (Transfer Learning) zur Übertragung von Fähigkeiten in andere Kontexte
    bzw. Anpassung für andere Aufgaben

Qualitätssicherung

  • Ausschluss von möglicherweise fehlerbehafteten Datenquellen oder Lernergebnissen
  • Validierung von Lernergebnissen durch menschliches Feedback
  • Abgleich mit vordefinierten Qualitätsmaßstäben

Systemvoraussetzungen

Teilweise mobile bzw. adaptive Arbeitsräume sind erforderlich, um diese beispielsweise an die physischen Einschränkungen des Roboters anzupassen. Entscheidend für die Lernfähigkeit ist eine multisensorische Online-Auswertung von Umgebungs- und Prozessdaten (Learning on Device). Um einfache bis komplexe erlernte Fähigkeiten (z.B. Anhalten an einer Kante) später wieder abrufen und kombinieren zu können, müssen diese in Fähigkeitsbibliotheken gesammelt und gespeichert werden. Für den Abruf solcher Fähigkeiten bzw. Bearbeitungsklassen oder Trainingsmodi (vgl. LfD, IIL etc.) benötigen die Anwendenden eine leistungsfähige und dennoch einfache Benutzerschnittstelle für die MRI, wofür Sicherheitskonzepte eine entscheidende Voraussetzung sind (z. B. Echtzeit-Reaktivität und permanente Kollisionskontrolle, regelungstechnische Absicherung des Systems).

Weitere Voraussetzungen

Der Mensch braucht eine generelle Bereitschaft zur Interaktion mit Robotern. Die Anwendenden müssen in der Lage sein, die Robotersysteme zu trainieren. Aus Gründen der Effizienz sollte das Aufgabenspektrum der Roboter niedrigkomplex sein.

Realisierung und mögliche Hürden

In einigen Fällen ist noch Grundlagenforschung erforderlich, der größte Aufwand liegt jedoch in der Systementwicklung. Zum einen sind diese Systeme für die Anwendenden noch zu komplex, zum anderen stellt die Integration der verschiedenen Systemkomponenten (Roboter, Werkzeuge, Steuerung, Aktorik, Sensorik etc.) eine Herausforderung dar. Während die Grundlagen für ein Robotersystem, das prinzipiell von Anwendenden trainiert werden kann, in circa zwei Jahren weitgehend geklärt sein dürften, werden Anwendende diese Technologie aufgrund der notwendigen Reduktion der Systemkomplexität eher erst in etwa fünf Jahren in der Praxis nutzen können.

(Einschätzung I Stand 05/2024)

Entwickelt wurde dieser Use Case mit Expertise aus der Arbeitsgruppe „Lernfähige Robotiksysteme” der Plattform Lernende Systeme, insbesondere von Gunnar Bloss (werk5 GmbH).

Use Case

Effektive Kreislaufwirtschaft: Roboter für eine bessere Trennung von Wertstoffen

Use Case im Überblick

Branche: Abfall-/Recyclingwirtschaft

Aufgabe: Einsatz von Pick-and-Place-Robotern, um Wertstoffe präzise zu trennen und spezifische oder problematische Objekte auszusortieren

Methode: verstärkendes Lernen, Ensemble Learning, Transfer Learning und weitere

Allgemeines

Eine effiziente Kreislaufwirtschaft ist ausschlaggebend, um die EU-weiten Umwelt- und Klimaziele bzw. die Nachhaltigkeitsziele der Vereinten Nationen (Agenda 2023) zu erreichen (vgl. Circular Economy Initiative Deutschland 2020). Wichtig ist dabei auch eine stärkere Automatisierung beim Recycling, um sowohl Präzision wie auch Kosten- und Ressourceneffizienz zu erhöhen. Aber auch, um dem Fachkräftemangel zu begegnen und unangenehme oder gar gefährdende Tätigkeiten an Maschinen auszulagern. Lernfähige Robotik, insbesondere das Lernen aus der Mensch-Maschine- oder auch Roboter-Roboter-Interaktion kann dazu beitragen, diese Ziele zu erreichen. Klassische Pick-and-Place-Roboter kommen hierbei zum Einsatz, um an Förderbändern Wertstoffe präzise zu trennen und spezifische oder problematische Objekte auszusortieren wie beispielsweise Elektronik, Batterien oder Schadstoffe.

Status quo

Für die Mülltrennung existieren bereits gut funktionierende technische Lösungen. Menschen müssen dabei aber oft immer noch mithelfen, was meist zumindest belastend, manchmal auch gesundheitsschädlich oder gar gefährlich ist. Die Mülltrennung erreicht jedoch oft nicht die gewünschte Qualität und stößt dabei auch oft an Kapazitätsgrenzen, was die Qualität einer sauberen Mülltrennung zusätzlich senken kann. Pick-and-Place-Roboter werden heute schon breit eingesetzt und sind vergleichsweise günstig. Im Zusammenspiel mit geeigneter Sensorik könnten sie das manuelle Herausgreifen von Objekten in den Sortieranlagen automatisieren.

Zukunftsperspektiven

Lernen durch Interaktion kann dazu beitragen, dass über Zwischenschritte der Teilautomatisierung (Stichwort: variable Autonomie) höhere Autonomiegrade im Recycling erreicht werden und sukzessive mit jeder Interaktion auch die Robustheit der nötigen KI-Modelle gestärkt wird. Ein auf diese Weise verbessertes Recycling kann zu einem zentralen Bestandteil einer Kreislaufwirtschaft werden, insbesondere aufgrund multimodaler Sensorik wie beispielsweise der Detektion verborgener oder zu demontierender Objekte. Zudem stellt es eine Vorstufe zu weiteren Betriebsstationen dar, wie der Demontage, in der aussortierte Wertstoffe zerlegt und auch Rohstoffe wiedergewonnen werden. Innerhalb von bereits bestehenden Anlagen, in denen klassische Methoden der Müllsortierung angewandt werden, können lernfähige Robotiksysteme komplementär eingesetzt werden (z. B. zur Qualitätssteigerung und -sicherung).

So werden in mehrfacher Hinsicht Potenziale frei:

  • Freisetzung von Arbeitskraft für Aufgaben mit höherer Wertschöpfung durch Rationalisierung von unattraktiven, unangenehmen oder potenziell gefährlichen Arbeitsprozessen
  • Erhöhte Sicherheit für Menschen vor Gefahrstoffen und gefährlichen Objekten
  • Betriebswirtschaftliche Vorteile bei perspektivischer Vollautomatisierung: Günstigere Betriebsbedingungen sowie ggf. Wegfall von an Menschen angepassten (Sicherheits-)Bedingungen (Lüftung, Arbeitsraum, Unfallschutz etc.)

Quellen des Lernens

  • Beobachten menschlicher Aktivitäten, z. B. Lernen durch Demonstration (Was greift der Mensch wie?)
  • Hinweise des Menschen auf entferntere, zu sortierende Objekte, z. B. Zeigen mit einem Laserpointer oder auf übertragenen Kamerabildern des Förderbandes
  • Kommentierung durch den Menschen in der Lernphase, z. B. Benennung von Objekten, Materialien.
  • Menschliche (verbale) Kommentierung oder Instruktion, um Affordanzen (Objekt ist greifbar, anhebbar etc.) oder Greif-Fähigkeiten zu lernen
  • Simultanes Lernen von allen menschlichen Instruktorinnen und Instruktoren an mehreren Förderbändern; so kann jede Roboterinstanz von den gelernten Fähigkeiten anderer Instanzen profitieren, z. B. Erkennen eines Objekts oder Ausführen eines Griffs

Benötigte Daten

In realen Umgebungen können Daten von eingebauten Sensoren und beteiligten Robotern (z. B. Daten zu erlernten Bewegungen) gesammelt werden. Zudem liegen ggf. Daten aus (früheren) Recyclingarbeiten vor oder aus der Vorbereitung und Übung dafür. Die Sensorik wird auch für die Objekt- bzw. Materialbeobachtung eingesetzt. Diese geht weit über die menschliche Wahrnehmung hinaus und stellt einen großen Vorteil beim Einsatz von Robotern dar, wie beispielsweise 3D-Kameras, Radar-, THz-, IR-Sensoren, Multi- und Hyperspektralkameras, magnetische Sensoren, Bar-Code und Matrix-Code-Leser zur Objektidentifikation oder zum Zeichenlesen. Die entsprechend erfassten Sensordaten werden systematisch gesammelt und verbunden (Data Fusion), um beispielsweise Objekte idealerweise auch bei Materialüberlagerungen akkurat erkennen zu können und wertvolle Lerndatensammlungen inklusive Metadaten zu erstellen. Eine vollständige Dokumentation wird auch zur Qualitätssicherung angelegt.

Methoden des Lernens

  • Reinforcement Learning (bestärkendes Lernen)
  • Ensemble Learning (gemeinsames Lernen, z. B. Boosting, föderiertes Lernen)
  • Few-shot Learning (KI-Modelle entwickeln mit geringen Datenmengen)
  • Lernen im Team (bei mehreren Robotern)
  • Transfer Learning (verschiedene Domänen, z. B. zwischen örtlich getrennten Recyclinganlagen)
  • Selbstlernen/Weiterlernen ab einer gewissen Ergebnisqualität des Robotereinsatzes

Qualitätssicherung

  • (Statistische) Analyse durch qualifizierte Lehrkräfte, andere Teammitglieder und/oder externe technische Mittel (nachgelagerte Laboruntersuchungen): Vergleich von Ergebnissen der Roboteraktion(en) und Handlungsabläufe (insbesondere Interaktion) mit Zielen und Aufwänden, aber auch Verlusten
  • Bestehende Technologien zur Qualitätskontrolle im Recycling
  • Gelernte Handlungsabläufe könnten unter gleichen oder anderen (realen oder virtuellen) Bedingungen zur Qualitätsbeurteilung ausgeführt und bewertet werden
  • Überprüfung von Sortierergebnissen in einer Lernphase, um Feedback (z. B. Falsch- oder Richtigklassifikation) für bestärkendes Lernen zu sammeln (chargenweise Eingabe von
    Feedback, in sogenannten Batches)
  • Auswertung der Dokumentation der Datensammlung

Systemvoraussetzungen

  • Es können handelsübliche schnelle Pick-and-Place-Roboter genutzt werden, wobei Sensoren und maschinelle Intelligenz von diesen abgesetzt und verteilt sein können.
  • Die Roboter und Sensoren können über die Bandbewegung synchronisiert werden. Durch die Trennung können menschliche Instruktorinnen und Instruktoren von Robotern separat arbeiten, sodass die funktionale Sicherheit (Safety) gewährleistet ist.
  • Die Roboter bzw. das Gesamtsystem müssen in der Lage sein, unterschiedliche Lernmethoden anzuwenden, um intelligent agieren zu können, sodass eine reibungslose Kommunikation wie Interaktion unter den Robotern und mit dem Menschen sowohl in realen als auch simulierten Umgebungen möglich ist.
  • Das System muss über entsprechende Sensorik, Aktuatorik und KI-Modelle verfügen und (ähnlich wie der Mensch) fähig sein, aus nur wenigen Wiederholungen zielgerichtet zu lernen (vgl. Few-shot Learning). Dafür könnten virtuelle Umgebungen (inkl. benötigter Interfaces) notwendig werden, um interaktives Lernen umzusetzen.
  • Gelernte Aktionen müssen in der nötigen Geschwindigkeit ausgeführt werden, wobei ausreichend akkurate Lokalisierung und Greifabschätzung gewährleistet werden müssen.
  • Neben dem maschinellen Lernen werden auch andere KI-Methoden eingesetzt wie regelbasierte Systeme zur Absicherung der Robotiksysteme. KI-Modelle sollten zudem überwacht werden (Model Monitoring), um diese ggf. an Veränderungen der realen Umgebung anzupassen und so die Robustheit der KI-Modelle zu erhalten.
  • Schließlich werden Auswertungsalgorithmen und -systeme benötigt sowie eine Wartungsinfrastruktur (z. B. Reparaturen und Reinigung von Robotern und Sensoren, Software-Updates).

Weitere Voraussetzungen

Um das gesellschaftliche Verständnis für die Chancen, Herausforderungen sowie Hintergründe der KI unterstützten Müllsortierung zu fördern, sollten insbesondere die direkt beteiligten Personen bzw. deren Interessenvertretende sowie weitere Stakeholder (z. B. Abfallverwertungsunternehmen, Arbeitnehmervertretungen, Gewerkschaften, Berufsgenossenschaften) schon in der Entwicklungsphase eingebunden werden. Instruktorinnen bzw. Instruktoren benötigen zudem die entsprechenden Fähigkeiten, um Roboter anzulernen. Bei der Umsetzung muss der gesetzliche Rahmen, insbesondere die Datenschutzgrundverordnung (DSGVO), beachtet und eingehalten werden. Darüber hinaus werden Szenarien (z. B. Use Cases in konkreten Unternehmen) benötigt. Insgesamt muss der Umsetzungsaufwand vertretbar bleiben, damit der Transfer in die Praxis eine realistische Unternehmung darstellt.

Realisierung und mögliche Hürden

Demonstratoren mit einem Technologiereifegrad (TLR) 5 existieren bereits, beispielsweise für das Aussortieren von Batterien (siehe: Kompetenzzentrum ROBDEKON). Ein Systemprototyp mit TRL 6 oder TRL 7, und somit ein bereits funktionierendes System in der realen Einsatzumgebung, sollte aufgrund der verfügbaren Komponenten bei einem entsprechenden Entwicklungspilotprojekt in ein bis zwei Jahren technisch umsetzbar sein. Es bedarf der Demonstration der Machbarkeit des Use Cases sowie einer besseren Kommunikation über die Vorteile für die Beteiligten (Win-win-Situation). Zudem stellt die systematische, menschenzentrierte Integration (teil-)autonomer Robotiksysteme in die betriebliche Praxis eine Herausforderung dar (siehe Whitepaper „Einführung von KI-Systemen in Unternehmen“, Plattform Lernende Systeme).

(Einschätzung I Stand 06/2024)

Entwickelt wurde dieser Use Case mit Expertise aus der Arbeitsgruppe „Lernfähige Robotiksysteme“ der Plattform Lernende Systeme, insbesondere von Prof. Dr. Jürgen Beyerer (KIT Karlsruhe, Fraunhofer IOSB)

Use Case

Wearable Robotics: Individuelle Unterstützung und körperliche Rehabilitation

Use Case im Überblick

Branche: Medizintechnik

Aufgabe: Unterstützung des menschlichen Körpers nach Bedarf („assist-as-needed“)

Methode: Klassifikation, Regression, (Deep) Reinforcement Learning, Active Learning, evolutionäre Verfahren und weitere

Allgemeines

Als „Wearable Robots” werden Roboter, die man am Körper trägt, bezeichnet – beispielsweise aktive Exoskelette und Orthesen oder robotische Arm- wie Beinprothesen. Sie müssen sich stark auf den Menschen einstellen und sollen ihn möglichst situationsgerecht und nach jeweiligen Vorlieben unterstützen – um Bewegung überhaupt erst zu ermöglichen oder um Bewegungen oder Körperhaltungen zu entlasten. Idealerweise sollte eine Unterstützung nach dem Modus „so viel wie nötig, so wenig wie möglich“ erfolgen („assist-as-needed“). Den benötigten Unterstützungsgrad erkennt das Robotiksystem dabei selbst. Zudem sollte es in der Lage sein zu lernen, wie viel Unterstützung entsprechend den Restkräften einer Person in einer bestimmten Situation angemessen ist. So kann mithilfe einer entsprechend gestalteten Prothese die Autonomie beeinträchtigter Menschen gestärkt werden.

Status quo

Aktuell können Exoskelette per Interface (z. B. Eingabe über Smartwatch oder Kontrolleinheit) angewiesen werden, bestimmte Bewegungen wie „geradeaus laufen“ oder „Treppen steigen“ zu unterstützen. Sie können auch im Sinne eines „assist-as-needed“ den menschlichen Körper nur so weit unterstützen, wie es die aktuelle Kraft des Menschen in der Situtation erfordert. Den individuell benötigten Unterstützungsgrad geben Therapeutinnen und Therapeuten oder die Nutzenden selbst vor. In der Anwendung wird also mit menschlichen Vorgaben und Regeln gearbeitet. Es gibt auch Ansätze, Gelerntes durch Interaktion anzupassen. So werden zum Beispiel für die Steuerung robotischer Prothesen Modelle zur Mustererkennung aus Biosignalen erlernt, um die Bewegungsintention der Person zu erkennen und zu interpretieren. Per App können die Nutzenden die Steuerung nachträglich noch verfeinern und so für ihre Bedürfnisse optimieren. Solche Lösungen sind bereits nach geltendem Recht im Produkt integriert.

Zukunftsperspektiven mit KI

Forschende nutzen maschinelles Lernen, um aus der Restaktivität der Muskulatur abzuleiten, wie stark eine Patientin bzw. ein Patient unterstützt werden muss. Die so erstellten KI-Modelle können auch in der Anwendung nachtrainiert werden. Für Wearable Robots gibt es in der Forschung bereits erste lernfähige Systeme dieser Art: In Zukunft können diese während des Einsatzes durch Feedbackschleifen selbst erkennen, ob sie nachtrainiert werden müssen. Somit brauchen Nutzende dies nicht selbst zu initiieren. Das System könnte sich eigenständig anpassen und so eine individuellere Unterstützung ermöglichen. Dabei könnte es auch durch Feedback der Nutzenden kontextspezifisch lernen, welche Art und Stärke der Unterstützung vom Menschen in welcher Situation als angenehm empfunden wird, ohne dass die Person dies explizit vorgeben muss. Hierzu wird erforscht, welche Art von Feedback sinnvoll für das maschinelle Lernen genutzt werden kann (bis hin zur Gehirnaktivität). Weiterhin könnten Exoskelette künftig lernen, zwischen intendierter und pathologisch-bedingter (z. B. durch Spastik, Rigor oder Tremor) Muskelaktivierung zu unterscheiden und den Unterstützungsgrad (etwa Bewegungsstärke und -geschwindigkeit) oder die Art der Therapieübung entsprechend automatisch anzupassen.

Quellen des Lernens

Wearable Robots lernen mit verschiedenen Methoden aus:

  • Biosignalen des Menschen (z. B. Muskel- und Gehirnaktivität, Eye-Tracking- oder Bewegungsdaten)
  • Explizitem menschlichem Feedback (z. B. Sprache, händische Manipulation)
  • Informationen bzw. Daten aus der Umgebung (z. B. Ort, Objekte, Interaktionsmöglichkeiten)

Das Exoskelett oder die robotische Prothese wertet während der Interaktion mit dem Menschen solche Biosignale und Daten aus. Je nach Situation und Kontext können verschiedene KI-Modelle erlernt oder genutzt werden.

Benötigte Daten

Die Daten werden über verschiedene Sensoren erfasst und können so aus unterschiedlichen Quellen gesammelt werden: beispielsweise die sensorische Erfassung…

  • der Umgebung hinsichtlich beobachtbarer Daten
  • des menschlichen Körpers wie etwa Biosignale, die nur mit speziellen Verfahren und Geräten erhoben werden können (z. B. Aufmerksamkeitsfoki der Nutzenden)
  • von Daten aus der Interaktion mit den Nutzenden, z. B.Interaktionskräfte
  • von Daten des Exoskeletts über seinen eigenen Zustand

Methoden des Lernens

Mittels Klassifikation oder Regression können Biosignale beispielsweise hinsichtlich der Stärke der muskulären Restaktivität interpretiert werden. Komplexere KI-Modelle wie tiefe neuronale Netze eignen sich, um zu unterscheiden, welche Bewegungen wann und wie am besten unterstützt werden. Um die Daten für eine Anpassung zu nutzen, sind Methoden wie Klassifikation, Regression, (Deep) Reinforcement Learning oder auch Active Learning bis hin zu evolutionären Verfahren nötig. Mit solchen Methoden lernt das Robotiksystem, wie es sich je nach Restaktivität bestimmter Muskelgruppen, Bewegungsart oder auch Situation verhalten muss. Wegen der benötigten großen Datenmengen und des zeitintensiven Trainings werden Deep-Learning-Verfahren wie Deep Reinforcement Learning nur selten (wenn überhaupt) eingesetzt. Neuere Ansätze prüfen, ob sich generische große KI-Modelle trainieren lassen, die zwar nicht mehr personenspezifisch trainiert werden, aber mit entsprechenden individuellen Daten an Personen anpassbar sind.

Qualitätssicherung

Die Qualitätssicherung ist vom menschlichen Feedback abhängig. Wie dieses systematisch und automatisch bewertet und genutzt werden kann, ist derzeit eine wichtige Forschungsfrage. Das Feedback kann dabei von Laien (Tragende, Patientinnen und Patienten) oder von Fachleuten (Medizin, Orthopädie, Biomechanik) gegeben werden. Es unterscheidet sich mitunter stark in Qualität und Subjektivität. Am einfachsten ist es, sich auf explizites Feedback zur Bewertung zu verlassen. Der Ursprung eines potenziellen Fehlers oder Qualitätsmangels lässt sich daraus allerdings nur schwer ableiten. Über implizites Feedback kann man Hinweise zeitgenauer erhalten. Zudem ist es wichtig, die Qualität der Lerndaten für das Robotiksystem einzuschätzen: Schlechte Lerndaten sollten nicht für die Anpassung von KI-Modellen genutzt werden. Um Fehler zu erkennen und zu vermeiden, sollten ein „doppeltes Netz“ eingezogen und Systeme (Roboter(regelung) plus Lernmethode etc.) so aufgesetzt werden, dass sie insgesamt keine Gefahr für die sie Tragenden darstellen können.

Systemvoraussetzungen

  • Daten von Nutzenden müssen datenschutzkonform verwendet werden können.
  • Die Lernfähigkeit liegt optimalerweise im System selbst (vgl. Edge AI).
  • Nutzen Wearable Robots generische KI-Modelle, ist die Individualität der Nutzenden stets zu berücksichtigen.
  • Systeme müssen verstärkt Daten über den Menschen und die Umgebung auswerten und daraus lernen können.
  • Sicherheitskonzepte sind hinsichtlich (selbst-)lernender Systeme zu überprüfen, anzupassen oder auch neu zu entwickeln.

Weitere Voraussetzungen

  • Menschen sollten sich auf das interaktive Lernen einlassen (können).
  • Sicherheitsmechanismen müssen etabliert und von Expertinnen und Experten genauso wie von Nutzenden als ausreichend anerkannt sein.
  • Therapeutinnen und Therapeuten, Ärztinnen und Ärzte sowie Pflegende sollten die Abläufe verstehen.
  • Bei allen Involvierten sollte eine gewisse digitale Kompetenz vorhanden sein oder entsprechend aufgebaut werden (z. B. bei älteren Personen).

Realisierung und mögliche Hürden

  • KI-Komponenten von Wearable Robots können durch die Integration in regelungstechnisch gesetzte Beschränkungen sicher gestaltet werden. Gelernte Modelle sind zwar zertifizierbar; es fehlt jedoch ein offizielles Vorgehen zur Zertifizierung selbständig weiterlernender Systeme.
  • Bezüglich des AI Acts bestehen Unsicherheiten in der Anwendung der Risikoklassen: Sind lernfähige Wearable Robots per se der Hochrisikoklasse zuzuordnen? Hierbei ist das robotische Gesamtsystem zu betrachten (inklusive regelbasierter Absicherung der KI) und nicht einzelne Lernmethoden bzw. Algorithmen.
  • Unsicherheit in der Vergütung während des Einsatzes in der Rehabilitation hemmen den Transfer. Nach geltenden Vorgaben ist die Vergütung zwar theoretisch möglich, tatsächlich bestehen aber hohe Hürden. Die Anschaffungskosten sind hoch, aber Nutzen und Ersparnisse wiegen diese rein ökonomisch gesehen auf.

(Einschätzung I Stand 06/2024)

Entwickelt wurde dieser Use Case mit Expertise aus der Arbeitsgruppe „Lernfähige Robotiksysteme“ der Plattform Lernende Systeme, insbesondere von Prof. Dr. Elsa Kirchner (Universität Duisburg-Essen, DFKI).

Weiterführende Informationen zu Wearable-Robots-Projekten:

  • Recupera REHA Exoskelett: Robotergestützte Rehabilitation mit Hilfe eines mobilen Ganzkörper-Exoskeletts.
  • MRock: Assist-as-needed: Wie viel Unterstützung PatientInnen benötigen, wird aus der Interaktion mit dem System auf Basis von EMG-Daten gelernt, und was sie subjektiv angenehm finden auf Basis von EEG-Daten.
  • Expect: Ableitung menschlicher Intentionen für Kollaboration, insbesondere aus EEGDaten (aber auch multimodal).
  • NoGravEx: Entwicklung eines Lernansatzes, um probandenspezifisch das Armgewicht zu kompensieren und so ein Gefühl von Mikrogravitation zu vermitteln.
  • Q-Rock: Roboter lernen, korrektes Verhalten aus Feedback während der Interaktion aus EEG-Daten auszuführen bzw. Fehlverhalten zu vermeiden.
  • NOE-EMY: Lernfähige Fußorthese erkennt Bewegungsabsicht mittels Multielektrodensystemen am Oberschenkel.
  • RoSylerNT: Interaktive, mittels biomechanischer Modelle adaptive robotische Trainingssysteme für körperliche und kognitive Stimulation.
  • PhysioMio: Adaptives Soft-Exoskelett zur Unterstützung von Physiotherapie nach einem Schlaganfall.

Use Case

Pflegeunterstützende Robotik: Individuelle Betreuung und Assistenz

Use Case im Überblick

Branche: Pflege

Aufgabe: Entlastung von Pflegekräften, um sie in Kerntätigkeiten und Interaktion mit Pflegebedürftigen zu stärken

Methode: Lernen durch Vormachen (Learning from Demonstration), bestärkendes Lernen (Reinforcement Learning) und weitere

Allgemeines

Robotik kann in der Pflege vielfältig eingesetzt werden (siehe Szenario KI zur Unterstützung in der Pflege). Entsprechend breit ist das Forschungsfeld. Es umfasst sowohl Robotersysteme, die eher menschenferne Tätigkeiten übernehmen (z. B. Wäsche transportieren), als auch Systeme, die nahe bzw. direkt am Menschen eingesetzt werden (z. B. Getränke anbieten), oder sogenannte Social Bots, die dazu dienen, Pflegebedürftigen Gesellschaft zu leisten und/oder soziale Kontakte zu pflegen. Im Folgenden liegt der Fokus auf dem Bereich der pflegeunterstützenden Robotik, also Roboter, die Pflegekräfte entlasten, sodass diese sich stärker auf ihre Kerntätigkeiten und die Interaktion mit den Pflegebedürftigen konzentrieren können. So können Roboter beispielsweise in Zukunft dabei helfen, Pflegebedürftigen, die oft zu wenig trinken, Getränke zu holen und zu reichen, Wasserflaschen zu öffnen oder ggf. beim Trinken zu unterstützen. Die Integration von Robotik in die Pflege lässt daher eine hohe Akzeptanz erwarten. Denn in der Pflege besteht Konsens darüber, dass menschliche Zuwendung durch Roboter nicht ersetzt, erschwert oder gefährdet werden darf (Deutscher Ethikrat 2020, S. 7).

Status quo

Es gibt bereits Robotersysteme für das Holen und Bringen von Objekten, die sich jedoch noch im Pilotstatus befinden. Diese Systeme basieren auf vordefinierten und vorprogrammierten Aufgaben, die der Roboter ausführt. So kann der Roboter beispielsweise Medikamente auf einem programmierten Weg von Punkt A nach Punkt B transportieren und ist durch Navigationsalgorithmen in der Lage, Hindernissen auf seinem Weg auszuweichen. Die einzige Interaktion besteht häufig darin, den Roboter zum Punkt A zurückzuschicken. Die Steuerung des Systems erfolgt zum Beispiel über Tablets. Die Manipulationsfähigkeit (z. B. Greifen) ist durch die Hardware begrenzt und aus Sicherheitsgründen auch in der Praxis eingeschränkt. Serienmäßig werden echte lernfähige Robotersysteme in der Pflegeassistenz noch nicht eingesetzt. Denn die Anforderungen an die Interaktion mit Pflegebedürftigen sind äußerst hoch.

Zukunftsperspektiven mit KI

Mittelfristig wird es möglich sein, vordefinierte Fertigkeiten (Tätigkeiten, Wahrnehmung etc.) vor Ort durch Interaktion zu individualisieren: beispielsweise bei der Verfeinerung parametrisierbarer Fertigkeiten, wenn das Gewicht einer Wasserflasche durch die Interaktion mit der Flasche gelernt wird. Ein weiteres Beispiel wäre die Anpassung vortrainierter Modelle zur Erkennung von Objekten, Handlungen und implizitem Feedback (z. B. Gestik, Mimik) an pflegespezifische Kontexte (z. B. Unterscheidung von Pflegenden und Pflegebedürftigen, Erkennen pflegetypischer Tätigkeiten).

Mittel- bis langfristig können Roboter auch durch Interaktion neue Aufgaben erlernen. Die Vision ist das freie Erlernen neuer Aufgaben, was für Forschung und Entwicklung eine Herausforderung darstellt: Denn dazu müssen sowohl bestimmte Verhaltensweisen bzw. Fähigkeiten als auch bestimmte Abläufe erlernt werden. Ein Set an hoch- und niedrigschwelligen Fähigkeiten kann dann neu angeordnet werden, um Aufgaben auszuführen. So könnte ein Roboter durch Interaktion mit Pflegenden Wege und Aufbewahrungsorte und mit Pflegebedürftigen individuelle Vorlieben (z. B. Trinkzeiten und -menge, Lieblingsgetränke, Komfortzonen) erlernen. Anschließend könnten entsprechende Handlungen ausgeführt werden, wie etwa das Holen und Reichen des Lieblingsgetränks zur richtigen Zeit im richtigen Abstand und/oder eine an Beeinträchtigungen angepasste Unterstützung beim Trinken.

Quellen des Lernens

  • Entwickelnde in Offline-Phasen, etwa Lernen von Basisfähigkeiten bzw. -wissen in Simulationen und Ausstattung mit einem grundlegenden Vision System zur Objekterkennung
    bzw. vortrainierten (multimodalen) allgemeinen Modellen (Basismodellen)
  • Interaktion mit Pflegekräften (z. B. Wege, Tätigkeiten, Orte, an denen sich Gegenstände befinden)
  • Interaktion mit Pflegebedürftigen (z. B. individuelle Präferenzen)
  • Selbstbeobachtung des Robotiksystems (z. B. Umgang mit Objekten durch Interaktion mit diesem)

Benötigte Daten

Erfassung von Umgebungsdaten mit multimodaler Sensorik

  • LiDAR für optische Abstands- und Geschwindigkeitsmessung (z. B. als Grundlage für die Pfadplanung)
  • Allgemein: Daten aus explizitem oder implizitem und bewusstem oder unbewusstem menschlichen Feedback
  • Kameradaten (z. B. von Gesichtern und Mimik, um Trinkvorrichtungen zu platzieren)
  • Audiodaten (z. B. linguistische und paralinguistische Informationen wie sprachliche Äußerungen und Sprachintonation für Anweisungen)
  • Interaktionsdaten (z. B. Wasserflasche ist umgefallen oder wurde erfolgreich übergeben, Vormachen einer Handlung, Zeigen eines Weges)

Methoden des Lernens

  • Aktives Lernen durch menschliche Demonstrationen und durch Imitation des Menschen (z. B. Mensch führt ein Getränk auf eine bestimmte Weise an den Mund oder Teach-in,
    der Roboter wird geführt und wiederholt die Bewegung)
  • Reinforcement Learning (z. B. Lernen individueller Präferenzen aus positivem und negativem Feedback)
  • Few shot learning (z. B. via vortrainierten, allgemeinen Modellen zur Objekterkennung, die dann an pflegerelevante Objekte angepasst werden)
  • Vortrainierte allgemeine Verhaltensmodelle

Qualitätssicherung

Beim Einsatz von Robotiksystemen nah am Menschen ist die funktionale Sicherheit (Safety) entscheidend. Maschinelles Lernen sollte daher immer durch nicht-pflegebedürftige Personen überwacht werden (Human-in-the-Loop). Neu erlernte Fähigkeiten oder Aufgaben müssen durch diese Personen abgenommen und autorisiert werden. Gleichzeitig bedarf es einer regelungstechnischen (Mehrfach-)Absicherung des Systems (z. B. einfache komplette Abschaltung des Systems, mechanische Einschränkungen, Definieren von Korridoren der Anpassbarkeit bei parametrischen KI-Modellen) (siehe auch KI-Kompakt: Hybride KI, S. 8). Für Systeme, die nah an der Marktreife sind, sind Tests in realen Umgebungen der Versorgungspraxis wichtig.

Systemvoraussetzungen

Damit Roboter ihre Umgebung manipulieren können (z. B. ein Getränk greifen), ist eine entsprechende Hardwareausstattung erforderlich. Dies in Abhängigkeit, wo die Berechnungen für die Aktionen des Roboters, aber auch für das Training und die Inferenz der KI-Komponenten angesiedelt sind. Die Rechenressourcen für KI sind lokal im Robotersystem begrenzt (on the edge), was in einem zentralen Rechenzentrum (Cloud), das abgesichert sein muss, so nicht der Fall ist. Darüber hinaus benötigt der Roboter ausreichend Kraft, um die vorgesehenen Objekte halten und tragen zu können, sowie komplementäre und parallele Systeme bzw. multimodale Sensorik mit mehreren Redundanzebenen. Darüber hinaus muss die Wissensbasis des Robotersystems von Anfang an erweiterbar ausgelegt sein.

Weitere Voraussetzungen

  • Allgemein: Wenn Robotiksysteme in der Pflege nicht einfach, sicher, schnell und finanzierbar sind, wird ihr Einsatz in der Praxis unwahrscheinlich. Hierzu muss auch klar sein,
    wie das Robotiksystem in den Versorgungsalltag integriert werden kann, was dabei zu beachten ist und welche Bedarfe vor Ort tatsächlich bestehen. Besonderheiten möglicher
    Interaktionspartner in der Pflege sollten dabei berücksichtigt werden (z. B. Demenz, Pflegestufen). Zudem sollte der Einsatz sowohl für Pflegende als auch für Pflegebedürftige
    akzeptabel und transparent sein. Für Pflegende sollten weiterhin einschlägige Aus- und Weiterbildungen eingeplant werden.
  • Gesetzliche Regelungen: Diese müssen eingehalten werden (z. B. KI-Verordnung, DSGVO – Datenschutzgrundverordnung). Die DSGVO muss beispielsweise bei audiovisueller Aufzeichnung und Präferenzprofilen von Personen berücksichtigt werden. Eine Umsetzung im Sinne von Edge AI könnte hier dem Datenschutz dienlich sein (vgl. Ecker, W., Houdeau, D. et al., 2024).
  • Empfehlungen des Deutschen Ethikrates: Darüber hinaus sollten bei der Implementierung und Integration von Robotik in die Pflege die Empfehlungen des Deutschen
    Ethikrates (2020) berücksichtigt werden, wie unter anderem die Umsetzung ethischer Prinzipien von Beginn der Entwicklung an (ethics-by-design mit Werten wie Selbstbestimmung,
    Identität, Privatheit etc.) und die frühzeitige Einbeziehung von Pflegekräften und -bedürftigen in die Entwicklung (partizipatives Design).

Realisierung und mögliche Hürden

Grundsätzlich ist der Use Case in einem überschaubaren Zeitraum realisierbar, wenn er sich auf das Holen von Getränken beschränkt. Dabei geht es zunächst nur um einfache und parametrisierbare Aufgaben innerhalb spezifischer Rahmenbedingungen (wie Wege zu Gläsern und Flaschen, Bewegen und Öffnen von Flaschen etc.). Pflegeunterstützende Robotiksysteme, die in der Interaktion mit Pflegenden und Pflegebedürftigen lernen, werden aufgrund der oft höheren Variabilität der Szenarien und der Sensitivität gegenüber fehlerhaftem Lernen technisch eher erst in etwa zehn Jahren möglich sein. Eine technische Hürde ist der Mangel an Daten für das Modelltraining. Derzeit sind nicht ausreichend Verhaltens- und 3D-Daten aus verschiedenen Praxisanwendungen frei verfügbar, die z. B. verschiedene Demographien abdecken. Dies gilt insbesondere für die Pflege (z. B. Daten zu unterschiedlicher Pflegebedürftigkeit). Zudem fehlen pflegespezifische Aktionssets. Offene Fragen bestehen auch in Bezug auf die KI-Verordnung (z. B. hinsichtlich der Risikoklassifizierung) und die Zulassung (Von wem darf das System wie lernen? Nur von den Pflegenden oder nur von den Pflegebedürftigen? Soll es Unterschiede nach Pflegestufen geben?).

(Einschätzung I Stand 10/2024)

Entwickelt wurde dieser Use Case mit Expertise aus den Arbeitsgruppen „Lernfähige Robotiksysteme“, „Arbeit/Qualifikation Mensch-Maschine-Interaktion“ und „Gesundheit, Medizintechnik, Pflege“ der Plattform Lernende Systeme, insbesondere von Prof. Dr. Elsa Kirchner (Universität Duisburg-Essen, DFKI), Dr. Dorothea Koert (Technische Universität Darmstadt), Prof. Dr. Oskar von Stryk (Technische Universität Darmstadt), Prof. Dr. Elisabeth André (Universität Augsburg), Prof. Dr. Karin Wolf-Ostermann (Universität Bremen) und Martin Zimmermann (imsimity gmbh).

Weitere Informationen zu Projekten im Bereich Robotik in der Pflege

Quellen
Deutscher Ethikrat (2022): Robotik für gute Pflege. Stellungnahme. 2020.
Ecker, W., Houdeau, D. et al. (2024): Edge AI: KI nahe am Endgerät. Technologie für mehr Datenschutz, Energieeffizienz und Anwendungen in Echtzeit. Whitepaper aus der Plattform Lernende Systeme, München. https://doi.org/10.48669/pls_2024-4
Plattform Lernende Systeme (2023): KI Kompakt: Hybride KI: Wissen und Daten kombiniert nutzen (Publikationsreihe).

Use Case

Bergen von Altlasten: Roboter für maritime Einsätze

Use Case im Überblick

Branche: Gewässerbewirtschaftung

Aufgabe: Bergen von (un-)bekannten Objekten in Gewässern

Methode: Deep-Learning-Methoden, Support Vector Machines, Unsupervised- oder Reinforcement-Learning-Methoden und weitere

Allgemeines

In deutschen Küstengewässern liegen etwa 1,6 Millionen Tonnen Kampfmittel aus den Weltkriegen. Auch nach über 80 Jahren sind die zum Teil toxischen Substanzen noch reaktiv. Dadurch sind zum einen starke Umweltschäden zu befürchten, die sich negativ auf Fischerei und Tourismus auswirken können. Zum anderen kann die Errichtung von Infrastrukturen, wie Häfen, Unterseekabel, Pipelines, Offshore(wind)anlagen etc., blockiert oder erschwert und der Seeverkehr gefährdet werden. Daher müssen diese Kampfmittel detektiert, klassifiziert sowie geborgen und geräumt werden. Aufgrund fehlender Informationen wie auch Ausrüstung und zu wenigen Tauchenden wird es ohne lernende und autonome Robotiksysteme kaum möglich sein, im gebotenen Zeitraum die Kampfmittel zu räumen (z. B. wegen der Korrosion von Minen etc.).

Status quo

Zur Detektion und Klassifizierung von Kampfmitteln werden derzeit bemannte und unbemannte Systeme eingesetzt. Teilweise werden die Messdaten bereits durch robotische Systeme wie nicht kabelgebundene UUV, unbemannte Unterwasserfahrzeuge (englisch: Unmanned Underwater Vehicles), aufgenommen. Je nach Planung der Messkampagne agieren derartige Systeme aufgrund der eingeschränkten Unterwasserkommunikation bereits hochautomatisiert, autonom – ohne Eingreifen eines menschlichen Operateurs. Die Schritte zum Auslesen der gesammelten Messdaten bis hin zur Klassifizierung werden jedoch weitgehend händisch von Kampfmittelfachleuten getätigt. Verdachtspunkte müssen heute durch ROVs (Remote Operated Vehicles) oder durch Tauchende verifiziert werden. Die meisten Verdachtspunkte im heutigen Bergungsprozess sind jedoch Fehldetektionen: beispielsweise Müll, Autoreifen, Kühlschränke etc. Die anschließende Bergung und Entsorgung der Kampfmittel erfolgen bisher ausschließlich manuell.

Zukunftsperspektiven mit KI

Mit lernenden Robotiksystemen können Detektion, Klassifikation und Bergung effizienter und wirtschaftlicher gestaltet werden. Auch die Gefährdung des Menschen würde durch den Einsatz von lernfähigen UUV reduziert. Aufgaben wie die Verifikation von Funden sowie die Bergung von Altlasten könnten künftig von lernfähigen UUV übernommen werden. Die Daten aus den bisher manuellen Verifikationsmissionen können zur Verbesserung der Objekterkennung der UUV genutzt werden und Daten aus der Fernsteuerung können den Autonomiegrad der Missionen erhöhen und die Handhabung der Kampfmittelobjekte verbessern (z. B. das Greifen von Objekten). Die Vision ist, dass die Detektion, Klassifikation und Bergung von Altlasten durch eine Flotte von autonomen Unterwasservehikeln übernommen wird, die bei Unsicherheiten Operateure bzw. menschliche Entscheider hinzuziehen und aus dieser Interaktion wiederum lernen (vgl. Beyerer et al., 2021).

Angestrebt wird dadurch eine effiziente Räumung durch eine vollautomatisierte Räumungsplattform. Dies bedeutet eine stetige Verbesserung der Systeme auf Basis der unterschiedlichen Datentypen und mit zunehmender Erfahrung der Kampfmittelfachleute und Operateure bis hin zum Schritt der eigenständig selbstlernenden Systeme auf Basis der geborgenen Altlasten inklusive eines Feedbackprozesses.

Quellen des Lernens

Lernen von Verhaltensmustern, Prozeduren und Techniken anhand:

  • Erfahrungen (d. h. den Systemdaten) der eingesetzten Systeme
  • Beobachtung anderer Systeme
  • Rückmeldungen aus der Mensch-Maschine-Interaktion (z. B. im Rahmen von Teleoperation oder variabler Autonomie)

Weitere:

  • Diverse UUVs bei einzelnen Messfahrten und täglichen Bergungsprozessen
  • ROV-Systeme oder Tauchende im Rahmen von Verifikationsmissionen
  • Operateure und Kampfmittelfachleute bewerten gesammelte Bilddaten (Datenannotation)

Benötigte Daten

  • Interaktionsdaten
  • Systemdaten
  • Daten aus vorhandenen Sensoren (z. B. SideScan Sonar, Synthetisches Apertur Sonar, MultiBeam Sonar, Magnetik-Sensoren) und neuartigen Sensoren (z. B. Sensoren für Seismik, transiente Elektromagnetik oder nitrose Gase)
  • Strömungsdaten
  • Synthetisch generierte Daten
  • Daten zu Greifposen (z. B. bei ferngesteuertem Greifen von Objekten)

Methoden des Lernens

  • Klassische maschinelle Lernalgorithmen (z. B. Support Vector Machines (SVM), Decision Trees) können für die Klassifizierung von Altlasten im Meer eingesetzt werden.
  • Aus der Bildverarbeitung sind Techniken wie Convolutional Neural Networks (CNNs) anwendbar, um (Sonar-)Bilder von Unterwasserumgebungen zu analysieren sowie potenzielle Altlasten zu identifizieren und zu klassifizieren.
  • Auf diese Daten können Deep-Learning-Methoden angewendet werden, um Muster zu erkennen, die z. B. auf Seeminen hindeuten.
  • Multimodale generative KI kann beispielsweise lernen, fehlende oder unvollständige Daten zu ersetzen.
  • Mehrere KI-Methoden können kombiniert werden, um so die Leistungsfähigkeit der Objekterkennung zu verbessern.
  • In einigen Fällen können Unsupervised- oder Reinforcement-Learning-Methoden eingesetzt werden, um Muster in den Daten zu erkennen, die auf Altlasten hinweisen könnten, ohne dass eine explizite Markierung etwa von Munition in den Trainingsdaten erforderlich ist.

Qualitätssicherung

Zunächst würden die Systeme durch die Bewertung der Kampfmittelfachleute und Operateure optimiert werden. Die Missionsanalyse erfolgt nach einem abgeschlossenen Messzyklus und nach Bergung bzw. optischen Verifizierung/Auswertung von Verdachtspunkten. Erst danach steht die Bergung der Munitionsaltlasten an. Die Qualität der Ergebnisse wird durch den gesamten Bergeprozess nachgehalten. Die Systemverbesserung erfolgt durch anschließendes Training mit direktem Feedback aus der Bergung. Idealerweise ist im späteren Verlauf des Prozesses kein menschlicher Operateur bzw. keine Kampfmittelexpertin und kein Kampfmittelexperte mehr notwendig. Die Qualitätssicherung erfolgt dann durch die Bergungsplattform mit „direkten Feedbackloop“ an die unbemannten Unterwasserfahrzeuge.

Systemvoraussetzungen

Unter Wasser ist die Datenkommunikation, unter anderem aufgrund geringer Bandbreite, nur beschränkt möglich. Missionen sind daher weitgehend kommunikativ abgeschnitten und benötigen einen hohen Automatisierungsgrad. Für das maschinelle Lernen müssen aber Daten aus den Missionen aufgezeichnet und zur Verfügung gestellt werden. Da Daten aber nicht in Echtzeit übertragbar sind und die Rechenkapazität auf UUV begrenzt ist, werden vor allem daten- und rechenintensive Verfahren wie Deep Learning nur von Mission zu Mission realisierbar sein. Neben den Hauptaufgaben müssen UUV über Kapazitäten zur Speicherung von Lerndaten und zur Auswertung von Verdachtspunkten verfügen.

Weitere Voraussetzungen

  • Datenkooperation: Unternehmen und Einrichtungen, die Missionen durchführen, sollten gesammelte Daten teilen, sodass genügend Trainingsdaten vorgehalten werden können
    und ein umfangreich annotierter Datensatz („Altlastenatlas“) entsteht, der mit jeder Mission präziser wird.
  • Recht und Regeln: Es fehlt ein rechtlicher Rahmen für die hochautomatisierte Bergung von Altlasten. Speziell zur Operation in Verklappungsgebieten existiert ein hoher Formalismus, der aus Sicherheitsgründen gerechtfertigt ist. Bei einem hohen Automatisierungsgrad stellen sich besondere Fragen zu Sicherheit und Versicherungsrecht, da Teile
    der Altlasten noch zündfähig sein können.
  • Wirtschaftlichkeit: Es ist noch unklar, wie ein tragfähiges Geschäftsmodell für derartige Bergeprozesse gestaltet sein könnte: Soll der Staat eine Delaborationsplattform durch
    Einmalzahlung finanzieren und dann betreiben? Oder: Soll die Plattform industriell betrieben werden, etwa durch Bezahlung pro Tonne geräumter Altlasten?

Realisierung und mögliche Hürden

Die Detektionsphase wäre in kurzer Zeit umsetzbar. Entsprechende lernende Systeme müssten mit den teilweise schon vorhandenen Daten entwickelt werden. Ein industrielles System könnte somit innerhalb der nächsten drei Jahre zum Einsatz kommen. Für die hochautomatisierte Delaborationsplattform existieren bereits fertige Konzepte, die in der Industrie erarbeitet wurden. Die größte Hürde ist hier die fehlende Wirtschaftlichkeit aufgrund fehlender (politischer) Rahmenparameter. Mit dem Bau einer solchen Plattform könnte unmittelbar begonnen werden und in etwa drei bis fünf Jahren würde diese Plattform zur Verfügung stehen und weiter optimiert werden.

Sonstiges

Für die Datenakquise und die Plattformkonzeptionierung wurden bereits Fördervorhaben initiiert. Es existiert ein Vorhaben zur „Industriellen Räumung zu Altlasten in Verklappungsgebieten“ (IRAV). Zudem gibt es Projekte zur Realisierung von Forschungsansätzen zur Bergung von Altlasten (CleanSeas). Allerdings fehlt bei diesen Ansätzen noch der Sprung in die Hochautomatisierung, da nach wie vor die konzeptionellen Grundlagen erarbeitet werden.

(Einschätzung I Stand 09/2024)

Entwickelt wurde dieser Use Case mit Expertise aus der Arbeitsgrupppe „Lernfähige Robotiksysteme“ der Plattform Lernende Systeme, insbesondere von Dr. Jeronimo Dzaack (ATLAS ELEKTRONIK GmbH), Prof. Dr. Jürgen Beyerer (Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung), Dr. Sirko Straube (Deutsches Forschungszentrum für Künstliche Intelligenz GmbH).

Quellen
Jürgen Beyerer et al. (Hrsg.) (2021): Kompetent im Einsatz – Variable Autonomie Lernender Systeme in lebensfeindlichen Umgebungen. Whitepaper aus der Plattform Lernende Systeme, München.

Use Case

Streuobstwiesen pflegen und erhalten: Roboter für fachgerechten Obstbaumschnitt

Use Case im Überblick

Branche: Landwirtschaft

Aufgabe: B(Teil-)automatisierter Baumschnitt, um Streuobstwiesen als Kulturlandschaft zu erhalten und zu fördern

Methode: Neuronale Netzwerke, Entscheidungsbäume (Decision Trees), bestärkendes Lernen (Reinforcement Learning) und weitere

Allgemeines

Streuobstwiesen gehören zu den artenreichsten Biotopen und sind in vielen Regionen Deutschlands landschaftsprägend. Mit ihren großkronigen Hochstammobstbäumen bieten
sie Lebensraum für zahlreiche Tier- und Pflanzenarten. Diese besondere Kulturlandschaft kann nur erhalten werden, wenn sie gepflegt und genutzt wird. Fast 80 Prozent der Streuobstbäume werden jedoch nicht oder nur unregelmäßig geschnitten. Fachgerechte Pflege und sachgemäßer Schnitt sind aber die Voraussetzung für langlebige, gesunde und ertragreiche Obstbäume (MLR, 2015; Reiser et al., 2021; Straub et al., 2022). Die Anzahl der Fachleute, die über das notwendige Wissen für die Pflege und nachhaltige Nutzung von Streuobstbäumen verfügen, ist jedoch rückläufig. Zum Erhalt der Kulturlandschaft „Streuobstwiese“ sollen daher zukünftig vom Menschen angeleitete, autonome Roboter den Baumschnitt unterstützen, um Bestand und Ertrag zu erhalten.

Status quo

Das KI-System für den Roboter kann mithilfe neuronaler Netze lernen, welche Äste geschnitten werden müssen und wo genau der Schnitt erfolgen soll. Das Lernen erfolgt durch den Input von Expertinnen und Experten, die sich mit Baumschnitt auskennen. Hierzu werden Schnittinformationen in ein bestehendes 3D-Modell integriert, in dem durch mathematische Merkmale (z. B. 3D-Voronoi-Berechnungen) gelernt wird, welche Äste an welcher Stelle des Modells geschnitten werden müssen.

In der angewandten Forschung wurde bereits ein solches KI-System in mehreren Schritten aufgebaut:

  1. Das System macht Aufnahmen des Baumes aus verschiedenen Perspektiven und erstellt eine photogrammetrische 3D-Punktwolke.
  2. Die Punktwolke wird unter Verwendung von maschinellem Lernen segmentiert und in ein 3D-Modell überführt (vgl. Reiser et al., 2021; Straub et al., 2022).
  3. Eine fachkundige Person schneidet den Baum und eine Aufnahme wird davon gemacht. Das System lernt durch Berechnungen der Unterschiede semantischer Merkmale zwischen den Zuständen vor und nach dem Baumschnitt und kann eigenständig Vorschläge zu Schnittpunkten machen. Dies kann als Entscheidungshilfe für einen unerfahrenen Menschen genutzt werden.

Zukunftsperspektiven mit KI

In Zukunft könnte ein solches KI-System in einen Roboter integriert werden und somit selbstständig entscheiden, welche Äste wo geschnitten werden können, und den Schnitt mit entsprechender Aktuatorik autonom ausführen. Da die Umgebungen jedoch sehr komplex und dynamisch sind, ist eine variable Autonomie sinnvoll, um mittel- bis langfristig höhere Autonomiegrade zu erreichen (vgl. Beyerer et al., 2021). Umsetzbar wäre dies mithilfe von teleoperativ durchgeführten Baumschnitten, von Fehlerkorrekturen bei der Identifikation möglicher Schnittstellen oder durch die Freigabe von Schnittoptionen seitens Fachkundiger. Bei zu großer Unsicherheit wäre das System sogar selbst in der Lage, eine Freigabe durch jene anzufordern.

Weiterhin könnte das Schneiden von Bäumen auch in virtuellen Räumen trainiert und so Wissen weitergegeben werden – an einen Menschen wie an das KI-System:

  1. Der Mensch könnte diese Fähigkeiten, das fachgerechte Schneiden, in virtuellen Räumen erlernen (virtuelles Baumschneiden).
  2. Die in virtuellen Umgebungen gesammelten Daten könnten wiederum als Trainingsdaten für Robotersysteme dienen.

Quellen des Lernens

  • Lernen durch Beobachtung der menschlichen Arbeitsergebnisse beim Baumschnitt
  • Lernen durch menschliches Feedback (z. B. Entscheidungen oder Korrekturen), sei es manuell vor Ort oder durch Teleoperation bzw. in variabler Autonomie
  • Daten aus den Handlungen von Menschen in virtuellen Umgebungen (Simulation)
  • Benötigte Daten
  • Empirisch real (Sensordaten, z. B. RGB-Kameras, LiDAR)
  • Empirisch virtuell (Interaktion in virtueller Umgebung)
  • (Interaktions-)Daten, die durch Teleoperation oder im Zuge variabler Autonomie entstehen

Methoden des Lernens

  • Decision Trees (Random Forest)
  • Neuronale Netzwerke
  • Reinforcement Learning

Qualitätssicherung

  • Feedback im Rahmen variabler Autonomie (z. B. Korrekturen)
  • Visualisierung und Validierung der Lerndaten (Digital Twins) bzw. Expertenkontrolle
  • Visualisierung der Messdaten bei komplexen Systemen sehr wichtig, um Fehler zu entdecken

Systemvoraussetzungen

Grundvoraussetzung für die Aktorik ist, dass die Sensorik in Echtzeit eingesetzt werden kann. Des Weiteren muss die Soft- und Hardware des Robotiksystems hinreichend gut integriert sein. Für die (Daten-)Kommunikation sowie das KI-Training und die KI-Inferenz sind eine IT- und Cloudumgebung mit entsprechender Rechenkapazität nötig. Schließlich hängt die Anwendung auch von adäquaten Kommunikationsnetzwerken auf dem Land für die (Daten-)Kommunikation (3G bis 5G) ab.

Weitere Voraussetzungen

  • Bereitschaft des Menschen zur Interaktion
  • Qualifikation der ExpertInnen (Kenntnisse in der Pflege von Hochstammobstbäumen)

Realisierung und mögliche Hürden

Das Softwaresystem zur Schnittpunktbestimmung ist bereits weit entwickelt und könnte aus technischer Sicht kurzfristig als Entscheidungshilfe für den Menschen bei der Baumpflege eingesetzt werden. Die Integration der Software in ein Robotersystem inklusive der notwendigen Aktorik für die Baumpflege sowie die Umsetzung der variablen Autonomie werden hingegen erst in einigen Jahren technisch umsetzbar sein. Größere Hürden stellen unter anderem die Umsetzung der Echtzeitsensorik sowie der Umgang mit der Heterogenität der Umgebung in Streuobstwiesen dar. Auch die Autonomie sowie die Teleoperation der Aktorikstellen sind herausfordernd, da die Objekte – Grasflächen, Kronenstruktur, Topografie, Flächengrößen, Baumalter etc. – extrem individuell sind und somit in ihrer räumlichen Erscheinung stark variieren.

(Einschätzung I Stand 09/2024)

Entwickelt wurde dieser Use Case mit Expertise aus der Arbeitsgrupppe „Lernfähige Robotiksysteme“ der Plattform Lernende Systeme, insbesondere von Prof. Dr. Hans W. Griepentrog (Universität Hohenheim).

Quellen
Jürgen Beyerer et al. (Hrsg.) (2021): Kompetent im Einsatz – Variable Autonomie Lernender Systeme in lebensfeindlichen Umgebungen. Whitepaper aus der Plattform Lernende Systeme, München 2021.
Ministerium für Ländlichen Raum und Verbraucherschutz Baden-Württemberg (MLR) (2015): Streuobstkonzeption Baden-Württemberg – Aktiv für Reichtum und Vielfalt unserer Streuobstlandschaften. Broschüre, 3. Auflage, Stuttgart.
Reiser, D., Straub, J., Griepentrog, H. W. (2021): Autonomer Baumschnitt in Streuobstwiesen. In Informations- und Kommunikationstechnologien in kritischen Zeiten (pp. 265 – 270). Potsdam: GI, Bonn.
Straub, J., Reiser, D., Lüling, N., Stana, A., Griepentrog, H. W. (2022): Approach for graph-based individual branch modelling of meadow orchard trees with 3D point clouds. Precision Agriculture, 23, 1967 – 1982.

Use Case

Erkunden, ergreifen, erforschen: Roboter für Einsätze auf anderen Planeten Allgemeines

Use Case im Überblick

Branche: Raumfahrt

Aufgabe: Greifen von (un-)bekannten Objekten bei Weltraummissionen

Methode: Grafische Methoden, Deep Learning, Normalizing Flow und weitere

Allgemeines

Weltraummissionen sind in hohem Maße von Robotern abhängig. Dies gilt insbesondere für die Erkundung von Planeten jenseits der Erde. Dabei sind häufig verschiedene Manipulationsaufgaben erforderlich, wie das Greifen bekannter (z. B. Werkzeuge, Messinstrumente) und unbekannter Objekte (z. B. Steine auf dem Mars) mit den Roboterarmen. Solche Arme können sowohl an mobilen Robotern (z. B. Rovern, Drohnen) als auch an stationären Systemen (z. B. Landefahrzeugen) angebracht sein.

Status quo

Roboter werden bei den meisten Weltraummissionen (z. B. Mars, Mond, ISS) heutzutage ferngesteuert: Bei Missionen mit kurzer Kommunikationsverzögerung (z. B. ISS) wird normalerweise ein Befehl gesendet und auf entsprechende Antwort gewartet. Ist die Verzögerung länger (z. B. Erde – Mars), wird eine Reihe von Befehlen gesendet, normalerweise für einen Tag. Für Aufgaben mit geringer Komplexität können derzeit in beiden Fällen begrenzt autonome Roboter eingesetzt werden, um zeitkritische Entscheidungen selbst zu treffen: beispielsweise zur Kollisionsvermeidung.

Das Greifen erfordert die Kombination von Handlungsabfolgen aus Aktorik und Sensorik bzw. Verfahren zur Objekterkennung. Für bekannte Objekte werden häufig vereinfachte Verfahren zur Lage- und Posenerkennung der Objekte verwendet: z. B. über Markierungen, Muster- und lernbasierte Ansätze. Lichtverhältnisse und Umgebungsbedingungen (z. B. Sensorrauschen etc.) stellen dabei größere Herausforderungen dar. Klassische Bilderkennungsverfahren, die auf Kantenerkennung, Schatten und/oder Tiefendaten basieren, stoßen unter den genannten Herausforderungen bei unbekannten Objekten jedoch an ihre Grenzen. Bei unterschiedlichen Umgebungen und Lichtverhältnissen sind Lernverfahren daher gegenüber klassischen Verfahren im Vorteil. Sie werden mit einer Vielzahl von Daten trainiert, um Objekte in unterschiedlichen Umgebungen zu erkennen. Wichtig ist dabei die Relevanz der Trainingsdaten für die jeweiligen Objekte und Umgebungen (Stichwort: Out-of-Distribution Error).

Zukunftsperspektiven mit KI

Lernbasierte Algorithmen bieten gerade im Bereich der Wahrnehmung enorme Möglichkeiten. Wünschenswert sind kontinuierlich Lernende Systeme, die auch mit unbekannten Daten zu Objekten, Oberflächen, physikalischem Verhalten etc. umgehen können. Hier wird in ferner Zukunft die Selbstbeobachtung von KI-Systemen eine große Rolle spielen. Allerdings sind solche Systeme derzeit noch nicht so ausgereift, dass man den introspektiven Werten vertrauen kann. Lernen durch Interaktion kann daher mittelfristig helfen, mit unbekannten Daten umzugehen, da durch Interaktion neue Lerndaten generiert werden: z. B. durch manuelle Datenannotation oder Teleoperation. Menschlicher Input, der beim Fernsteuern von Robotern entsteht, kann für das KI-Training genutzt werden, um beispielsweise Greifaktionen perspektivisch autonomer durchzuführen (Beyerer et al., 2021).

Quellen des Lernens

  • Operatoren können eingehende Bilddaten unbekannter Objekte annotieren.
  • Operatoren können das Robotiksystem via Teleoperation beim Greifen von Objekten fernsteuern.
  • Das Robotiksystem kann autonom in Interaktion mit einem Objekt treten. Beispiel: ein unbekanntes Objekt, das als Stein erkannt wird, greifen und drehen, um so Bilder aus verschiedenen Blickwinkeln zu erstellen.
  • Lernen durch Interaktion im Rahmen variabler Autonomie.

Benötigte Daten

  • Daten aus dem Weltraum – die jedoch rar und knapp sind.
  • Gründe dafür sind Einschränkungen bei der Signalübertragung und der Bandbreite, aber auch, dass nur einige wenige Missionen Daten vorgehalten haben.
  • Zudem werden Daten aufgrund des hohen Formalismus im Weltraum oft nicht effizient zur Erde zurückgesendet, sondern über viele Relaispunkte (z. B. Satelliten, Empfangsstationen, Kontrollzentren etc.), wodurch die Nettodatenmenge nochmals stark reduziert wird.
  • Die Leistungsfähigkeit Lernender Systeme hängt jedoch stark von gut annotierten und vielfältigen Trainingsdatensätzen ab. Neuere Forschungsansätze verwenden synthetisch generierte Daten, wobei hier nur Szenarien abgebildet werden können, die bekannt sind (Stichwort: simulation-to-reality-gap), was insbesondere bei anderen Himmelskörpern
    nicht der Fall sein muss.
  • Daten aus der Mensch-Roboter-Interaktion können die Datenbasis erweitern (siehe Quellen des Lernens).

Methoden des Lernens

  • Klassische Methoden des maschinellen Lernens: Grafische Modelle (z. B. Conditional Random Fields, CRF), Support Vector Machines (SVM), Gaussian Mixture Models (GMM), Clustering Ansätze oder Decision Trees.
  • Modernere Methoden des maschinellen Lernens: Deep Learning, z. B. Multi-Layer Perceptrons (MLP), Convolutional Neural Networks (CNN) oder Transformer-Architekturen.
  • Generative Lernansätze: Es ist wichtig, unbekannte Daten während der Missionsdurchführung sicher erkennen zu können (Stichwort: zuverlässige Selbstbeobachtung). Hierbei sind generative Lernansätze (z. B. Normalizing Flow), die auch Daten außerhalb der Trainingsdatenverteilung als solche erkennen, diskriminativen Ansätzen, die Daten immer einem der bekannten Kategorien zuordnen, vorzuziehen.

Generell sollten vor allem Lernstrategien eingesetzt werden, die operative Daten für das Training nutzen können. Neben Reinforcement, Continuous und Active Learning sind hier auch generative und evolutionäre Verfahren zu nennen.

Qualitätssicherung

Qualitätssicherung ist gerade in der Raumfahrt von großer Bedeutung. Für einen sicheren und zuverlässigen Einsatz lernbasierter Systeme ist grundlegend:

  • Ein starker Fokus auf zuverlässige Selbsteinschätzungswerte der Methoden ist nötig (z. B. Konfidenz- und Plausibilitätswerte), um gegebenenfalls Anpassungen vorzunehmen.
  • Darüber hinaus sollten bei der Objekterkennung Techniken der klassischen Computer Vision genutzt werden, um die Plausibilität der Einschätzung zu prüfen.
  • Zusätzlich müssen allerdings auch Kontrollsysteme rund um lernbasierte Methoden entwickelt werden, um die nötige Sicherheit und Zuverlässigkeit zu gewährleisten.

Systemvoraussetzungen

  • Die Schnittmengen hinsichtlich erforderlicher Fähigkeiten und Anforderungen zur Lösung von Greifaufgaben im Weltraum und in der Industrie sind groß, wobei der Einsatz im
    Weltraum besonderen Voraussetzungen unterliegt. Obwohl die Umgebungen visuell sehr unterschiedlich sind, benötigen Robotersysteme in beiden Fällen Objekterkennung, Lage und Greifschätzung, Bahnplanung des Roboterarms und eine robuste Ausführung der Operation.
  • Daten aus Weltraummissionen und Interaktionen müssen aufgezeichnet und für maschinelle Lernverfahren zur Verfügung gestellt werden. Dazu müssen die Systeme neben den
    für ihre Hauptaufgabe vorgesehenen Rechen- und Leistungsmöglichkeiten über Ressourcen verfügen, um Daten für das Lernen aufzuzeichnen, explizit neu zu berechnen
    und in aufbereiteter Form zur Erde zu senden. Das Lernen mit diesen so gewonnenen Daten kann je nach Hardwareanforderung und Verfügbarkeit von Rechenkapazitäten
    direkt auf dem Roboter stattfinden oder in geeigneten Einrichtungen wie Landefähre oder Kontrollzentrum.
  • Für den Einsatz von Lernverfahren direkt im Weltraum oder in der Nähe des Systems ist spezielle Hardware nötig (Stichwort: space-qualified GPU), die derzeit nicht verfügbar ist.
  • Insbesondere das Lernen mit neuronalen Netzen wird aufgrund begrenzter Ressourcen (Kosten, Rechenkapazität usw.) wohl immer auf der Erde stattfinden. Daten müssen
    daher in einer Form zur Erde gesendet werden, die auf dem Weg möglichst wenig Ressourcen blockiert und dennoch die nötige Qualität für das Lernen aufweist.

Weitere Voraussetzungen

Die Akzeptanz und auch die Bereitschaft, moderne KI-Technologien einzusetzen, ist insbesondere seitens der Programmleitung für derartige Missionen unabdingbar. Denn mit jedem Technologieexperiment muss auch eine Risikoübernahme einhergehen.

  • Der Weltraum ist Gegenstand des internationalen (politischen) Wettbewerbs. Aus technischer Sicht und aufgrund der Tatsache, dass nur sehr wenige reale Daten zur Verfügung
    stehen, ist internationale Zusammenarbeit hier jedoch von herausragender Bedeutung.
  • Zudem bergen Synergien zwischen Industrie und Raumfahrt beim Thema Erkennen und Greifen von Objekten Potenziale.

Realisierung und mögliche Hürden

Experimente, bei denen einem Mars-Rover mehr Rechenleistung durch leistungsfähigere Computer auf einem Mars-Hubschrauber zur Verfügung steht, stimmen Forschende sehr zuversichtlich, ebenso wie die Chancen, die kommerzielle Standardhardware bereits bietet. Sind domänenadäquate und leistungsfähigere Rechnerarchitekturen erst einmal verfügbar, werden Lernverfahren vermehrt eingesetzt – auch beim Greifen. Im nächsten Jahrzehnt wird sich dies in vielen, auch kommerziellen, (Mond-)Missionen zeigen, ebenso wie weitere Schritte hin zum Lernen in Iterationen im Weltraum.

(Einschätzung I Stand 09/2024)

Entwickelt wurde dieser Use Case mit Expertise aus der Arbeitsgruppe „Lernfähige Robotiksysteme“ der Plattform Lernende Systeme, insbesondere von Dr. Armin Wedler (Deutsches Zentrum für Luft- und Raumfahrt)

Quellen
Jürgen Beyerer et al. (Hrsg.) (2021): Kompetent im Einsatz – Variable Autonomie Lernender Systeme in lebensfeindlichen Umgebungen. Whitepaper aus der Plattform Lernende Systeme, München.