KI-Anwendungsszenario
Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
„Wir gehen da rein und machen unseren Job. Ja, es ist gefährlich. Aber einer muss es machen. Und wir von der Feuerwehr – wir machen das.“
Thorsten Lömke ist einer von rund 1,3 Millionen Feuerwehrleuten in Deutschland. Bei etwa 3,9 Millionen Einsätzen im Jahr leisten sie Hilfe. Sie retten Unfallopfer aus ihren Fahrzeugen, löschen Schwelbrände in Wohnhäusern und holen auch mal die Katze vom Baum. Doch immer wieder gibt es auch Einsätze, bei denen sich Feuerwehrleute in große Gefahr begeben müssen: bei Bränden in Industrieanlagen, Überschwemmungen, Erdbeben, Lawinenabgängen oder Terroranschlägen.
Deshalb arbeiten Hochschulen, Forschungseinrichtungen und Unternehmen daran, ihnen eine ganz neue Art von Helfern beiseite zu stellen. Intelligente Roboter sollen schon in einigen Jahren Einsatzkräfte vor Ort unterstützen. Der Schlüssel dazu heißt Künstliche Intelligenz (KI). Am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Bremen zum Beispiel bereiten Forscherinnen und Forscher robotische Systeme auf Einsätze in lebensfeindlichen Umgebungen vor.
„Damit ein Roboter laufen kann, müssen bis zu 70 Motoren und Hunderte von Sensoren zusammenwirken. Und all diese Informationen müssen in Echtzeit verarbeitet werden.“
Der Forschungs- und Entwicklungsaufwand, den Sirko Straube am DFKI und andere KI-Expertinnen und -Experten in ganz Deutschland betreiben, ist immens – doch er lohnt sich. Intelligente Roboter können am Einsatzort in Zukunft die unterschiedlichsten Aufgaben übernehmen, um Einsatzkräfte wie Thorsten Lömke zu unterstützen: Sie liefern Lageinformationen. Sie überwachen den physischen Zustand von Opfern und Rettungskräften. Sie erstellen detaillierte Gefährdungskarten, auf denen etwa austretende Gase verzeichnet sind. Und sie kommunizieren dabei laufend und blitzschnell: mit der Einsatzleitung in der Feuerwache, mit anderen Robotern und mit ihren menschlichen Kollegen vor Ort.
Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Die Verletzten sind geborgen, der Brand ist gelöscht – Zeit, sich auszuruhen? Nicht für die autonomen Roboter! Als Lernende Systeme müssen sie nun ihre Schlüsse aus dem Einsatz ziehen und für kommende Aufgaben lernen: Die am Unfallort getroffenen Entscheidungen haben sie selbst aufgezeichnet, um sie nun erklären zu können. So lassen sich Abläufe des Einsatzes rekonstruieren und Lehren aus etwaigen Fehlentscheidungen ziehen. Denn gerade bei seltenen Ereignissen müssen es Lernende Systeme schaffen, aus spärlichen Daten und wenigen Beispielen zu lernen.
Doch auch der Mensch befindet sich in einem Lernprozess: Welche speziellen Eigenschaften brauchen Lernende Systeme unter lebensfeindlichen Bedingungen und wie lässt sich der oft so schwierige Sprung vom Übungseinsatz in die Praxis meistern?
Prof. Dr.-Ing. Jürgen Beyerer über lernende Systeme in lebensfeindlichen Umgebungen
Karlsruher Institut für Technologie (KIT) | Fraunhofer IOSB | Leiter der Arbeitsgruppe 7 - Lebensfeindliche Umgebungen
Die Verletzten sind geborgen, der Brand ist gelöscht – Zeit, sich auszuruhen? Nicht für die autonomen Roboter! Als Lernende Systeme müssen sie nun ihre Schlüsse aus dem Einsatz ziehen und für kommende Aufgaben lernen: Die am Unfallort getroffenen Entscheidungen haben sie selbst aufgezeichnet, um sie nun erklären zu können. So lassen sich Abläufe des Einsatzes rekonstruieren und Lehren aus etwaigen Fehlentscheidungen ziehen. Denn gerade bei seltenen Ereignissen müssen es Lernende Systeme schaffen, aus spärlichen Daten und wenigen Beispielen zu lernen.
Doch auch der Mensch befindet sich in einem Lernprozess: Welche speziellen Eigenschaften brauchen Lernende Systeme unter lebensfeindlichen Bedingungen und wie lässt sich der oft so schwierige Sprung vom Übungseinsatz in die Praxis meistern?
Prof. Dr.-Ing. Jürgen Beyerer über lernende Systeme in lebensfeindlichen Umgebungen
Karlsruher Institut für Technologie (KIT) | Fraunhofer IOSB | Leiter der Arbeitsgruppe 7 - Lebensfeindliche Umgebungen
Neben diesen von Jürgen Beyerer skizzierten technischen Herausforderungen gibt es auch einige übergeordnete Aspekte, die es zu regeln gilt: Was passiert mit personenbezogenen Daten, die intelligente Roboter aufzeichnen und verarbeiten? Wie verfahren Lernende Systeme in Dilemma-Situationen – etwa, wenn mehrere Opfer gleichzeitig Hilfe benötigen, dies aber nicht geleistet werden kann? Und schließlich: Wer haftet eigentlich, falls Lernende Systeme Schäden verursachen?
Dies alles sind wichtige Fragen. Doch allzu viel Zeit sollte bis zu ihrer Beantwortung nicht vergehen. Denn Feuerwehrleute wie Thorsten Lömke sind auf Unterstützung angewiesen – besser heute als morgen.
„Wir wünschen uns für die Zukunft, dass uns selbstlernende Assistenzsysteme beim Einsatz helfen und wir uns nicht mehr in lebensgefährliche Situationen begeben müssen.“
Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.