
Herr Beyerer, welche Potenziale eröffnen sich für die Zukunft? Gerne anhand eines konkreten Beispiels.
Jürgen Beyerer: Roboter, die durch Interaktion lernen, sind in besonderem Maße geeignet, sich Fähigkeiten für bestimmte Arbeiten aufwandsarm anzueignen, die bisher von Menschen erledigt werden. In manchen Branchen lässt es sich in Hochlohnländern, wie in Deutschland, nur mit menschlicher Arbeitskraft nicht mehr wirtschaftlich und konkurrenzfähig produzieren. Ein gutes Beispiel sind Ernteaufgaben in der Landwirtschaft, die bisher auf eine große Zahl von Erntehelfern angewiesen ist. Primäres Ziel muss es dabei aber nicht sein, Arbeitsplätze wegzurationalisieren, sondern zunehmend den durch unsere Demographie bedingten Arbeitskräftemangel zu kompensieren. Man denke beispielsweise an Roboter, die Pflegekräfte unterstützen und sie von gut automatisierbaren Aufgaben entlasten. Darüber hinaus lassen sich solche lernfähigen Roboter für Tätigkeiten einsetzen, die für den Menschen gefährlich, gesundheitsschädlich, lästig oder zu anstrengend sind. Entsprechende Beispiele sind Unterwasserarbeiten in großer Tiefe oder die Sortierung von Abfällen zu Recyclingzwecken oder körperlich sehr belastende manuelle Tätigkeiten wie etwa das Schleifen im Handwerk.
Sicherheit spielt in der sozialen Interaktion eine große Rolle. Wie kann diese gewährleistet werden?
Jürgen Beyerer: Die Sicherheit bei der Interaktion mit Robotern hat viele Aspekte. Zum einen betrifft es die physische Sicherheit des Menschen (Safety), die mit unterschiedlichen Konzepten gewährleistet werden kann – indem Impuls und kinetische Energie robotischer Bewegungen beschränkt werden, durch niedrige Massen und Geschwindigkeiten von Roboterextremitäten sowie mittels Beschränkung von Kräften durch weiche Strukturen oder durch Kraft- und Drehmomentsensoren. Ein anderer Aspekt der Sicherheit betrifft den Schutz der Privatsphäre und der Daten von interagierenden Menschen, die mittels der Sensoren von Robotern beobachtet werden. Unzulässige Auswertung und Missbrauch von Daten muss verhindert werden. Hierfür müssen die Roboter von Seiten der Hersteller Schutzmechanismen mitbringen, die nachweislich geprüft und zertifiziert sind. Und schließlich müssen die Roboter auch cybersicher (Security) sein, damit sie nicht von Dritten übernommen oder missbraucht werden und die bereits genannten Sicherheitseigenschaften nicht ausgehebelt werden können.
Welche Herausforderungen bleiben?
Jürgen Beyerer: Herausforderungen für den Einsatz von interaktiv lernenden Robotern gibt es einige. Zum einen ist es die Akzeptanz solcher Technologien in der unmittelbaren Nähe zum Menschen. Ängste könnten entstehen, dass die eigene Arbeit wegrationalisiert werden könnte, oder ob der Roboter den Menschen beobachtet und die entsprechenden Daten zweckentfremdet werden könnten. Bedenken könnte es auch geben, ob der Roboter seine Aufgabe überhaupt gut genug und zuverlässig erfüllen kann. Und natürlich hängt es sehr stark von der tatsächlichen Aufgabe ab, ob sich der Einsatz von Robotern bereits technisch realisieren lässt oder ob diese die gewünschte Leitung erbringen und gleichzeitig wirtschaftlich beschafft und betrieben werden können.
Das Whitepaper „KI in der Robotik. Flexible und anpassbare Systeme durch interaktives Lernen“ steht hier zum Download zur Verfügung.
Das Interview ist für eine redaktionelle Verwendung freigegeben (bei Nennung der Quelle © Plattform Lernende Systeme).