Content

Jürgen Handke

Humanoide Roboter

Showcase, Partner und Werkzeug

1. Edition 2020, ISBN print: 978-3-8288-4250-2, ISBN online: 978-3-8288-7135-9, https://doi.org/10.5771/9783828871359

Tectum, Baden-Baden
Bibliographic information
Jürgen Handke Humanoide Roboter Showcase, Partner und Werkzeug Te ct um Hu m an oi de R ob ot er Jü rg en H an dk e Jürgen Handke Humanoide Roboter Jürgen Handke Humanoide Roboter Showcase, Partner und Werkzeug Tectum Verlag Jürgen Handke Humanoide Roboter Showcase, Partner und Werkzeug © Tectum – ein Verlag in der Nomos Verlagsgesellschaft, Baden-Baden 2020 ePDF 978-3-8288-7135-9 (Dieser Titel ist zugleich als gedrucktes Werk unter der ISBN 978-3-8288-4250-2 im Tectum Verlag erschienen.) Umschlaggestaltung: Tectum Verlag, unter Verwendung zweier Fotografien von Jürgen Handke und dem Bild # 1025854552 von jakkapan21 | www.istockphoto.com Alle Rechte vorbehalten Besuchen Sie uns im Internet www.tectum-verlag.de Bibliografische Informationen der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Angaben sind im Internet über http://dnb.d-nb.de abrufbar. Inhalt Vorwort VII Der Autor XI Die Co-Autoren XIII Hinweise zur Gestaltung des Buches XVII Quellen und Lektüreempfehlungen XIX Hintergrund XX I Roboter 1 I.1 Nicht-Humanoide Roboter 3 I.2 Humanoide Roboter 8 I.2.1 Humanoid, Android und Geminoid 12 I.2.2 Die Fähigkeiten Humanoider Roboter 18 I.2.2.1 Die Sprechfähigkeit 19 I.2.2.2 Die Dialogfähigkeit 19 I.2.2.3 Mehrsprachigkeit 20 I.2.2.4 Das Varietäten Problem 21 I.2.2.5 Gefühle 21 I.2.2.6 Bewegung 22 I.2.2.7 Sensorik/Wahrnehmung 23 I.2.2.8 Gefühle (Haptik) 24 I.3 Einfache Humanoide Roboter 25 I.3.1 SoftBank Robotics 28 I.3.1.1 NAO 29 I.3.1.2 Pepper 32 I.4 Ausblick und Lektüreempfehlungen 39 V II Showcases 43 II.1 Vortragsbegleitung 44 II.2 Touristik und Unterhaltung 49 II.3 Werbung in eigener Sache 51 II.4 Der Bereich Pflege 53 II.5 Im Einzelhandel 55 II.6 Auf öffentlichen Plätzen 56 II.7 Klerikale Showcases 58 II.8 Sinn und Nutzen von Roboter-Showcases 59 II.9 Ausblick und Lektüreempfehlungen 60 III Humanoide Roboter als Partner 63 III.1 Roboter als Partner in der Öffentlichkeit 65 III.2 Roboter als Partner in der Finanzwelt 67 III.2.1 Die Mizuho Bank (Japan) 67 III.2.2 Die ATB Financial (Kanada) 68 III.2.3 Die City Union Bank (Indien) 69 III.2.4 Die Bank of Tokyo-Mitsubishi UFJ (Japan) 70 III.2.5 Die HDFC Bank (Indien) 71 III.2.6 Die Canara Bank (Indien) 72 III.2.7 Der Status-Quo 72 III.3 Die Sparkasse Marburg-Biedenkopf (Deutschland) 74 III.3.1 Der Roboter als Empfangsperson 74 III.3.2 Der Roboter als Kundentrainer 75 III.3.3 Der Roboter als Wegweiser 77 III.3.4 Der Roboter als Interviewer 79 III.3.5 Der Roboter als Produkt- und Markenbotschafter 80 III.3.5.1 Fotomotiv 81 III.3.5.2 Darsteller in den sozialen Medien 83 III.3.5.3 Gesprächspartner 84 VI Inhalt III.3.6 Der Roboter als Unterhalter 85 III.3.6.1 Märchenerzähler 85 III.3.6.2 Quizmaster 87 III.4 Fazit: Humanoide Roboter im Finanzwesen 89 III.5 Roboter als Partner im privaten Bereich 91 III.6 Roboter als Partner im Bereich Pflege 94 III.6.1 Das Projekt ARiA 95 III.6.2 Das Projekt SMiLE 97 III.7 Synergien 99 III.8 Ausblick: Roboter als Partner in der Bildung 102 III.8.1 Spezielle Zielgruppen 103 III.8.1.1 L2TOR 104 III.8.1.2 Roboter an finnischen Grundschulen 105 III.8.2 Die Hochschullehre 106 IV Humanoide Roboter als Partner im Bildungsbereich 109 IV.1 Die klassische Hochschullehre 110 IV.1.1 Roboter in der klassische Hochschullehre 111 IV.2 Die digitale Lehre 115 IV.2.1 Roboter in der digital-integrativen Lehre 116 IV.2.1.1 Humanoide Roboter als Berater 118 IV.2.1.2 Humanoide Roboter als Assistenten 122 IV.2.1.3 Humanoide Roboter als Prüfer 127 IV.2.2 Classroom Application Packages 131 IV.3 Zusammenfassung und Lektüreempfehlungen 138 V Humanoide Roboter als Werkzeug 141 V.1 Algorithmisches Denken 142 V.2 Einfache Maker-Spaces 144 V.3 Maker-Spaces mit Robotern 145 VII Inhalt V.4 Visuelle Programmierung 147 V.4.1 Choregraphe 149 V.4.2 Tethys 151 V.5 Maker-Spaces mit NAO-Robotern 153 V.5.1 Robotik-Schulen 153 V.5.2 NAO-Roboter in Bildungszentren 154 V.5.3 NAO-Roboter in „Smart Schools“ 155 V.5.4 NAO-Roboter im regulären Schulbetrieb 156 V.5.4.1 Die Pilotphase 156 V.5.4.2 Das H.E.A.R.T. – Robotikum 159 V.5.4.3 Von H.E.A.R.T. zu RoboPraX 161 V.6 RoboPraX 162 V.6.1 Der Online-Vorkurs RoboBase 164 V.6.2 Das RoboPraX – Robotikum 168 V.6.3 Erweiterungen 171 V.6.3.1 Mit RoboSchool in die schulische Bildung 171 V.6.3.2 Mit RoboTeach in die Lehrerbildung 172 V.6.4 RoboPraX – eine Zwischenbilanz 175 V.7 Ethische und juristische Fragen 179 V.8 Zusammenfassung und Lektüreempfehlungen 180 VI Herausforderungen 183 VI.1 Bereitstellung und Logistik 183 VI.1.1 Infrastruktur 184 VI.1.2 Versicherung und Transport 185 VI.1.3 Bereitstellung 188 VI.2 Entwicklung 189 VI.3 Programmierung 191 VI.4 Robotik und Künstliche Intelligenz 194 VI.5 Zusammenfassung und Ausblick 199 VIII Inhalt VII Personen 203 VIII Glossar 207 IX Quellen 213 IX.1 Print-Referenzen 213 IX.2 Internet-Referenzen 216 IX.3 Video-Referenzen 217 Kapitel I 217 Kapitel III 219 Kapitel IV 219 Kapitel V 220 Kapitel VI 220 IX.4 Bildquellen 220 Kapitel I 221 Kapitel II 222 Kapitel III 223 Kapitel IV 223 Kapitel V 224 Kapitel VI 224 Kapitel VII 225 Index 227 IX Inhalt Vorwort “Machines won’t necessarily displace people, but they could make humans more efficient.” Smith, Noah. 2019. Bloomberg Opinion Schon seit langer Zeit träumen Menschen davon, sich ein künstliches Gegenüber zu schaffen, indem sie sich quasi selbst nachbauen. Humanoide Roboter, die in immer mehr Bereichen des täglichen Lebens auftauchen (z. B. als Empfangspersonen in der Hotel- und Reisebranche, als Kundenberater in Kaufhäusern, als mobile Informationspunkte auf Messen usw.) sind eine Manifestation dieses alten Menschheitstraums. Inzwischen können humanoide Roboter sogar käuflich zum Preis eines Kleinwagens erworben werden, wie z. B. der Roboter „Pepper“ der Firma SoftBank Robotics oder – für einen erheblich geringeren Betrag – dessen kleineres Pendant „NAO“. Dass sich humanoide Roboter verstärkt im menschlichen Alltagsleben ausbreiten und eher früher als später schlicht ‚dazu gehören‘ werden, ist keine Frage. Doch welche Aufgaben werden sie übernehmen, was können sie heute schon und welche Konsequenzen ergeben sich daraus für den Einzelnen und für die Gesellschaft? Dies sind zentrale Fragen, die in diesem Buch mit zahlreichen Anwendungsbeispielen untermauert werden sollen. So gibt es z. B. Roboter, die uns Menschen unterhalten, die Witze erzählen oder schlicht für Aufmerksamkeit sorgen. Vor solchen „Showcases“ fürchtet sich niemand. Ganz im Gegenteil – wir alle wollen auf ein Foto mit ihnen oder wollen, dass sie mit uns spielerisch interagieren. Doch was geschieht, wenn Roboter in unsere Arbeitswelt eindringen? Was, wenn Roboter im Hörsaal das Lerngeschehen mitbestimmen? Werden Roboter uns menschliche Lehrkräfte ersetzen? Machen XI wir uns als Lehrer nicht arbeitslos?1 Und was genau sollen die Roboter im Hörsaal tun? Wir werden in diesem Buch sehen, dass eine Ersetzung menschlicher Lehrer nicht nur nicht möglich ist, sondern in modernen Lehr-/ Lernformaten auch gar nicht das Ziel sein kann. Als Partner, der dem menschlichen Lehrer Arbeit abnimmt und ihm bisher nicht für möglich gehaltene Freiräume zur individuellen Betreuung der Lerner er- öffnet, macht ein humanoider Roboter allerdings sehr wohl Sinn. Wir werden sehen, dass es gerade diese Partnerfunktion ist, die den eigentlichen Nutzen von humanoiden Robotern nicht nur im Lehralltag ausmacht. Es gibt aber noch eine zweite, völlig unterschiedliche Funktion humanoider Roboter. Dabei arbeiten wir Menschen nicht mit sondern an ihnen. In speziellen Settings, den sogenannten Maker-Spaces, können sie gewinnbringend eingesetzt werden, um das algorithmische Denken von Lernern durch Programmierung der Roboter zu schulen und zu manifestieren. Die Roboter sind dabei geduldige Befehlsempfänger, die zwar keine Programmierfehler dulden, aber durch ihren durchaus möglichen Charme das Programmieren zu einem Erlebnis machen. Aus diesen Aspekten ergibt sich der Aufbau des Buches: Nach einer Übersicht über humanoide Roboter und der Darstellung von Showcase-Optionen widmen wir uns der zukunftsweisenden Partnerfunktion mit einem besonderen Ausflug in die Bildung, unserem zentralen Forschungsthema. Mit konkreten und bereits erprobten Anwendungen soll das schon heute große Potenzial humanoider Roboter in der Lehre illustriert werden. Danach folgt der Werkzeug-Einsatz humanoider Roboter. Mit dem Robotikum hat unser Team hier einen Maker-Space geschaffen, des- 1 Alle generischen Formen schließen alle Geschlechter mit ein. Auf die wortinterne Großschreibung, den Genderstern oder den Unterstrich wurde auf Grund der Empfehlungen des Rechtschreibrates von 2018 verzichtet. XII Vorwort sen Alleinstellungsmerkmal die richtungsweisende Kombination von Roboter-Schulung und digitalen Vorkursen ist. Dennoch birgt der Robotereinsatz eine Reihe von Problemen und Herausforderungen. Diesen widmen wir uns im abschließenden Kapitel, wo wir auch die Frage nach der Beziehung zwischen Künstlicher Intelligenz und Robotik aufgreifen. Das Buch wäre nicht möglich ohne die Unterstützung meiner Mitarbeiter und studentischen Hilfskräfte. Seit 2017 sind diese in unterschiedlicher Konstellation in unseren Projekten tätig. Ihnen gilt mein besonderer Dank. Ohne ihre Mitarbeit wäre ich nicht in der Lage gewesen, dieses Buch zu schreiben und die zahlreichen Projekte mit unseren Robotern durchzuführen. Danke – Team H.E.A.R.T.! Darco Denic, Medya Durak, Sophia Farroukh, Peter Franke, Florian Handke, Patrick Heinsch, Svea Krutisch, Rebecca Schmidt, Katharina Weber, Tabea Weiß, Sabrina Zeaiter Danke – Team RoboPraX! Nikamehr Abedishal, Moritz Albrecht, Michael Förster, Lara Fuchs, Patrick Heinsch, Lukas Hoss, Robin Janßen, Louisa Oesterle, Nino Reitmeier, Rebecca Schmidt, Luisa Strobl, Diana Theobald Neben den eigenen Team-Mitgliedern bin ich Jonas Gramse und seinem Team von der Firma SoftBank Robotics in Paris und Christiane Schulz mit ihren Mitarbeitern von der Firma LPE-Technik GmbH zu Dank verpflichtet. Sie haben uns nicht nur mental und durch die Lieferung von Robotern unterstützt, sondern sie haben bei der Lösung von Hard- und Softwareproblemen teilweise auch unbürokratisch in unserem Sinne reagiert. Jürgen Handke, Mai 2020 XIII Vorwort Der Autor Jürgen Handke, Jahrgang 1954 und Anglist/Linguist an der Philipps- Universität Marburg, hat mehrere Bücher im Bereich Sprachwissenschaft, Sprachtechnologie, sowie E-Education verfasst und bemüht sich seit Jahren um die Nutzung digitaler Lehr-, Lern- und Prüfungsszenarien in der Hochschullehre. Er ist Mitglied im Kernkompetenzteam des „Hochschulforums Digitalisierung“ und Mitglied der Strukturkommission für die neuzugründende TU Nürnberg. Zusammen mit seinem Team betreibt er den Virtual Linguistics Campus, die weltweit größte Lernplattform für Inhalte der englischen und allgemeinen Sprachwissenschaft. Sein dazu gehöriger YouTube-Kanal „Virtual Linguistics Campus“ enthält viele hundert frei zugängliche selbst-produzierte Lehrvideos und ist der größte seiner Art. Handke ist der deutsche Hauptvertreter des Inverted Classroom Models, mit dem er in der Mastery-Variante im Jahr 2013 Preisträger des Hessischen Hochschulpreises für Exzellenz in der Lehre 2013 geworden ist. 2015 erhielt er mit dem Ars legendi-Preis den höchsten deutschen Lehrpreis für „Digitales Lehren und Lernen“ vom Deutschen Stifterverband und der Hochschulrektorenkonferenz. 2016 gewann er mit seinem Flüchtlings-Sprachkurs #DEU4ARAB, einem MOOC mit mehr als 3.100 Teilnehmern, den Innovationspreis der deutschen Erwachsenenbildung, und sein MOOC #FIT4Uni wurde 2017 mit dem nationalen „OER Award“ in der Kategorie ‚Hochschule‘ ausgezeichnet. Seit Juni 2017 leitet er das BMBF-Projekt H.E.A.R.T., das den Einsatz humanoider Roboter in der Hochschullehre erprobt und evaluiert. Mit dem Projekt RoboPraX konnte er 2019 ein weiteres BMBF-gefördertes Projekt einwerben, das Roboter im schulischen Einsatz erprobt und an die jeweiligen Zielgruppen anpasst. Für die öffentliche Ver- XV breitung dieses Ansatzes erhielt er mit seinem Team 2019 den Preis „Zeigt eure Forschung – Hochschulwettbewerb im Wissenschaftsjahr 2019 – Künstliche Intelligenz“. XVI Der Autor Die Co-Autoren Darko Denič Darko Denič, Jahrgang 1985, arbeitete 5 Jahre lang als Englischlehrer und hat den Masterstudiengang „Linguistics and Web-Technology“ an der Philipps-Universität Marburg absolviert. Im Rahmen seiner Masterarbeit entwickelte und testete er mehrere Anwendungen, um herauszufinden, wie Studenten auf Roboter als Vortragende reagieren und wie Präsentationsparameter den Erfolg des Roboters als Vortragenden beeinflussen. In dieser Zeit war er Mitglied des Projekts H.E.A.R.T., in dem er die Geschichte humanoider Roboter im Unterricht, den Einfluss von Aussehen und Verhalten der Roboter in Interaktion mit Menschen sowie die moralischen Implikationen von Robotern in Bildungsinstitutionen erforschte. Peter Franke Peter Franke, Jahrgang 1973, hat Linguistik, Computerlinguistik, Informatik und Wirtschaftsinformatik studiert. Nach seinem Studium war er viele Jahre wissenschaftlicher Mitarbeiter von Prof. Dr. Jürgen Handke. In seiner Promotion bei Prof. Handke hat er sich intensiv mit dem Design von interaktiven virtuellen Software-Agenten für digitale Lehr- und Lernszenarien auseinandergesetzt. Als Programmierer hat er mehrere webbasierte Lernplattformen maßgeblich mitentwickelt. Seit Ende 2016 beschäftigt sich Dr. Franke mit sozialen Robotern und der Entwicklung von Anwendungen für diese. Aktuell pro- XVII grammiert er als freiberuflicher Entwickler Anwendungen für den Pepper-Roboter der Sparkasse Marburg-Biedenkopf. Michael Frantz Michael Frantz, Jahrgang 1968, ist Diplom-Psychologe, Referent für Unternehmenskommunikation und Sparkassen-Kaufmann. Zu Beginn seiner beruflichen Laufbahn arbeitete er im Marketing in der Privatwirtschaft. Im Jahr 2000 wechselte er zur Sparkasse Marburg- Biedenkopf. Heute ist er dort Leiter Kommunikation, Pressesprecher und verantwortet die Social Media-Aktivitäten des Kreditinstituts. Frantz koordiniert alle Aktivitäten der Sparkasse rund um und mit dem eigenen Pepper-Roboter „Numi“. Ziel ist herauszufinden, ob es sinnvolle Anwendungsmöglichkeiten für humanoide Roboter in Kreditinstituten gibt. Patrick Heinsch Patrick Heinsch, Jahrgang 1992, ist wissenschaftlicher Mitarbeiter im Projekt RoboPraX an der Philipps-Universität Marburg. Innerhalb des Projektes ist er für die Erstellung von MOOCs, die Wartung der humanoiden Roboter Pepper und NAO, sowie für die Entwicklung von Anwendungen verantwortlich. Er erhielt seinen Master- Abschluss in „Linguistics and Web-Technology“ und ist Teil des Projekts H.E.A.R.T., das neue Wege des Lehrens und Lernens in der Hochschulbildung erforscht, indem es den humanoiden Roboter Pepper als Assistent einsetzt. Darüber hinaus gewann er vor seinem Masterstudium praktische Einblicke in das Lehren und Lernen während seiner Arbeit als Sprachlehrer in Brasilien und arbeitete in einem Personalisierungsprojekt bei der Lufthansa. XVIII Die Co-Autoren Sabrina Zeaiter Sabrina Zeaiter, Jahrgang 1981, ist wissenschaftliche Mitarbeiterin und Sprachwissenschaftlerin am Institut für Anglistik und Amerikanistik der Philipps-Universität Marburg. Bis März 2019 arbeitete sie für das QPL-Teilprojekt Qualitätssicherung in Studiengängen als Beraterin von Fachbereichen und Entwicklerin von qualitativen Instrumenten zur Qualitätssicherung. Im Forschungsprojekt RoboPraX hat sie die Projektkoordination und das Projektmanagement inne und ist für die inhaltlich-curriculare Konzeptionierung und Anpassung des Robotikums zuständig. Darüber hinaus fallen die Entwicklung von Implementierungskonzepten und die empirisch-methodische Begleitung des Projektes in ihren Aufgabenbereich. Studentische Unterstützung Moritz Albrecht, Michael Förster und Diana Theobald sind studentische Hilfskräfte und studieren Lehramt an der Philipps-Universität Marburg. Sie leiten das Robotikum an der Marburger Adolf-Reichwein-Schule und erstellen dafür regelmäßig neue Aufgaben bzw. sie überarbeiten bestehende. Sie sind maßgeblich an der Weiterentwicklung des Einsatzes humanoider Roboter als Werkzeug beteiligt. Im Einzelnen übernehmen sie die Programmierung der Roboter, die Weiterentwicklung der Unterrichtsmaterialien sowie die Konzeptionierung und Administrierung des zugrundeliegenden Online-Vorkurses RoboBase. Nikamehr Abedishal, Lukas Hoss und Luisa Strobl sind studentische Hilfskräfte im Forschungsprojekt RoboPraX. Auch sie studieren Englisch am Institut für Anglistik und Amerikanistik der Philipps- Universität Marburg. Im Forschungsprojekt RoboPraX sind ihre Auf- XIX Die Co-Autoren gaben die Datenrecherche, das Grafik- und Webdesign, Öffentlichkeitsarbeit und die Erstellung von Informationsmaterialien. Zudem betreuen sie die Webseiten der Projekte H.E.A.R.T (www.project-heart.de) und RoboPraX (www.roboprax.de), sowie dazugehörigen Social Media Kanäle. Die Webseite zum Buch Da das Thema „Robotik“ derzeit im Fluss ist, hat das Autorenteam eine Webseite zum Thema und dort ein Unterkapitel zum Buch (Menüpunkt „Buchprojekte“) eingerichtet. Dort werden Zusätze und nützliche Hinweise zum Buch gegeben und die Fragen, die am Ende der einzelnen Kapitel gestellt werden, im Detail diskutiert. Außerdem sind über die Webseite die Roboter-bezogenen Projekte des Autorenteams erreichbar. https://www.educationalrobotics.de XX Die Co-Autoren Hinweise zur Gestaltung des Buches Um das Buch nicht nur für akademische Kreise lesbar zu halten, haben wir auf detaillierte Namensnennungen bei den Kapitelüberschriften verzichtet.2 Die folgende Liste spezifiziert die Autorenschaft der genannten Personen mit der Möglichkeit, diese in Publikationslisten zu nennen. Kapitel I: Roboter Denič, Darko/Franke, Peter/Handke, Jürgen/Heinsch, Patrick. 2020. Roboter. In: Handke, Jürgen. 2020. Humanoide Roboter – Showcase, Partner und Werkzeug. Baden-Baden: Nomos Verlag. S. 1–42. Kapitel II: Showcases Handke, Jürgen/Heinsch, Patrick. 2020. Showcases. In: Handke, Jürgen. 2020. Humanoide Roboter – Showcase, Partner und Werkzeug. Baden-Baden: Nomos Verlag. S. 43–61. Kapitel III: Humanoide Roboter als Partner Franke, Peter/Handke, Jürgen/Heinsch, Patrick. 2020. Humanoide Roboter als Partner. In: Handke, Jürgen. 2020. Humanoide Roboter – Showcase, Partner und Werkzeug. Baden-Baden: Nomos Verlag. S. 63–73. Franke, Peter/Frantz. Michael. 2020. Humanoide Roboter in der Sparkasse Marburg-Biedenkopf. In: Handke, Jürgen. 2020. Humanoide Roboter – Showcase, Partner und Werkzeug. Baden-Baden: Nomos Verlag. S. 74–90. 2 Einzelbegriffe, die im Glossar (Kapitel VIII) erklärt werden, sind im Fließtext kursiv gesetzt. XXI Handke, Jürgen/Heinsch, Patrick. 2020. Roboter als Partner im privaten Bereich. In: Handke, Jürgen. 2020. Humanoide Roboter – Showcase, Partner und Werkzeug. Baden-Baden: Nomos Verlag. S. 91–107. Kapitel IV: Humanoide Roboter als Partner in der Bildung Handke, Jürgen/Heinsch, Patrick. 2020. Humanoide Roboter in der Bildung. In: Handke, Jürgen. 2020. Humanoide Roboter – Showcase, Partner und Werkzeug. Baden-Baden: Nomos Verlag. S. 109–140. Kapitel V: Humanoide Roboter als Werkzeug Handke, Jürgen/Heinsch, Patrick/Zeaiter, Sabrina. 2020. Humanoide Roboter als Werkzeug. In: Handke, Jürgen. 2020. Humanoide Roboter – Showcase, Partner und Werkzeug. Baden-Baden: Nomos Verlag. S. 141–182. Kapitel VI: Humanoide Roboter – Herausforderungen Handke, Jürgen. 2020. Humanoide Roboter: Herausforderungen. In: Handke, Jürgen. 2020. Humanoide Roboter – Showcase, Partner und Werkzeug. Baden-Baden: Nomos Verlag. S. 183–201. XXII Hinweise zur Gestaltung des Buches Quellen und Lektüreempfehlungen Die zentralen Kapitel dieses Buches enden jeweils mit einem Abschnitt, in dem die Quellen genannt sind, aus denen sich die Inhalte des Kapitels nicht nur zusammensetzen, sondern auch absichern lassen. Wir haben bewusst auf die in rein akademischen Texten üblichen Literaturhinweise im Text verzichtet, um das Buch für eine breite Öffentlichkeit lesbar zu halten Im Fließtext der einzelnen Kapitel sind nur dann Literaturhinweise zu finden, wenn Quellenangaben unverzichtbar sind. Zusätzlich enthalten die abschließenden Abschnitte jeweils einige Fragen zur Vertiefung. Über die mit dem Buch verknüpfte Webseite www.educationalrobotics.de werden diese Fragen aufgegriffen und erneut diskutiert. Eine Besonderheit stellen die in den Seitenmarginalien angegebenen QR-Codes, die auch im Abschnitt IX.3 als Video-Referenzen gesammelt abgebildet sind. Mit diesen Codes und der entsprechenden App für Mobilgeräte können thematisch zugeordnete Videos beim Durcharbeiten des Buches direkt abgerufen werden. XXIII Hintergrund Zwei öffentlich geförderte und im deutschsprachigen Raum vielbeachtete Projekte bilden den inhaltlichen Hintergrund des Buches: Projekt H.E.A.R.T. Humanoid Emotional Assistant Robots in Teaching https://www.project-heart.de Projekt RoboPraX Roboter-Praktikum zur Förderung algorithmischer Denk- und Problemlösungsstrategien in einer digitalisierten Welt https://www.roboprax.de Beide Projekte werden vom Bundesministerium für Bildung und Forschung gefördert. Für H.E.A.R.T. konnten zusätzliche Kooperationsmittel für die Zusammenarbeit mit der Chinese University of Hongkong über den Deutschen Akademischen Austauschdienst eingeworben werden. Das RoboPraX-Robotikum profitiert zusätzlich von der finanziellen Unterstützung durch die Stadt Marburg und durch den unterstützenden Einsatz der Sparkasse Marburg-Biedenkopf. Während H.E.A.R.T. den Fokus auf den Einsatz humanoider Roboter im Lehralltag einer Hochschule setzt, zielt RoboPraX auf die Nutzung humanoider Roboter als Werkzeug ab. Ziel des Buches ist es, anhand der mittlerweile mehrjährigen Erfahrung im Umgang mit humanoiden Robotern vor dem Hintergrund der beiden Projekte, einer möglichst breiten Leserschaft einen umfangreichen Einblick in die Einsatzmöglichkeiten humanoider Roboter zu geben und gleichzeitig die derzeit diffusen Ängste und Vorbe- XXIV Hintergrund halte zu entkräften. In zahlreichen Interviews und Medienauftritten wurde der Autor wiederholt mit der Frage konfrontiert: „Werden uns Roboter ersetzen?“ Diese Frage bildet den Hintergrund des Buches. Anhand der durch die Projekte H.E.A.R.T. und RoboPraX gewonnenen Erfahrungen und Forschungsergebnisse, hoffen wir diese Frage nicht nur beantworten zu können, sondern dem Leser fundierte Informationen über den derzeitigen und den zu erwartenden Einsatz humanoider Roboter in der alltäglichen Lebenswelt geben zu können. XXV Hintergrund 1 I Roboter Many fear robots will take their job. They’re more likely to enhance our lives in ways never imagined. [INT1] Roboter sind künstliche Wesen mit einem physischen (aktuell elektromechanischen) Körper, die in einer realweltlichen Umgebung situiert sind und die Fähigkeit besitzen, diese Umgebung durch Sensoren wahrzunehmen, eigene algorithmische Denkprozesse durchzuführen und durch körperliche Aktionen in der Umgebung zu handeln. Wahrnehmung und Handlung sind dabei mehr oder weniger stark durch interne Denkprozesse vermittelt. Die Herkunft des Wortes „Roboter“ Schon im Mittelhochdeutschen des 14. Jahrhunderts taucht das Wort „robaten“ auf, wo es so viel wie „Frondienst leisten“ bedeutete. Durch polnische Landarbeiter ist das Wort als „rabotten“ in die deutsche Sprache eingegangen und war ein Synonym für das Ausüben schwerer körperlicher Tätigkeiten. Ursprünglich kommt das Wort „Roboter“ aus dem Tschechischen und bedeutet so viel wie „künstlicher Mensch“ oder „Automat“. 1920 wurde der Begriff „robot“ das erste Mal von Karel Čapek, im Drama R. U. R. (Rossums Universal-Robots) verwendet. In dem Werk werden mit dem Wort „Roboter“ Fronarbeiter bezeichnet. Das tschechische Wort „robot“ wurde als Lehnwort ins Englische übernommen und im Deutschen mit der Endung -er versehen. Das tschechische Wort stammt von „robota“ ab, welches so viel wie „Arbeit“ oder „Fronarbeit“ bedeutet und auf das altkirchenslawische Wort „rab“ zurückgeht, das mit „Sklave“ übersetzt werden kann. Quelle: https://www.wissen.de/wortherkunft/roboter Laut der Internationalen Organisation für Normung (ISO) ist ein Roboter „ein betätigter Mechanismus, der in zwei oder mehr Achsen mit einem Grad an Autonomie programmierbar ist und sich innerhalb seiner Umgebung bewegt, um die beabsichtigten Aufgaben auszuführen“. Beim Design des Körpers eines Roboters haben die Entwickler eine Vielzahl von Entscheidungen zu treffen. Zunächst benötigen sie ein Modell, das sie als Vorbild für den zu entwerfenden Roboterkörper verwenden wollen. Dieses Modell muss nicht zwangsläufig ein menschlicher Körper sein; es wurden beispielsweise bereits etliche Roboter nach den Vorbildern von Insekten oder Säugetieren gebaut. Es ist auch nicht gesagt, dass ein Roboter ausschließlich aus Komponenten eines einzigen Vorbilds bestehen muss oder dass die verwendeten Vorbilder ausschließlich organisch sein müssen. Vielmehr können auch von Fahrzeugen oder Maschinen her bekannte Komponenten, wie z. B. Räder, im Design verwendet werden. Darüber hinaus kann zwischen Industrie-, Service- und Assistenzrobotern (auch „Soziale Roboter“ genannt) unterschieden werden. Während Erstere der automatisierten industriellen Fertigung dienen, führen Service-Roboter nützliche Aufgaben für den Menschen oder dessen Umgebung aus. Als Beispiele hierfür dienen Staubsauger- oder Rasenmähroboter. Assistenzroboter hingegen treten in Interaktion mit Menschen, anstatt nur eine Dienstleistung – wie zum Beispiel das Rasenmähen – für sie auszuführen. [V.I.1] 2 Roboter Eine besondere Gruppe von Robotern sind humanoide Roboter. Diese sind vom Aussehen her dem Menschen relativ ähnlich, müssen aber, wie oben erwähnt, nicht alle menschlichen Züge widerspiegeln. Es reicht z. B. wenn entweder der Ober- oder der Unterkörper dem eines Menschen entspricht.3 Nicht-humanoiden Robotern dagegen fehlen die menschenähnlichen Attribute oder sie realisieren in ihrem Körperbau nur einige, wenige menschliche Gliedmaßen, wie z. B. Arme. I.1 Nicht-Humanoide Roboter Typische Beispiele nicht-humanoider Roboter sind in Abb. I.1 dargestellt und finden sich mittlerweile in wichtigen kommerziellen Anwendungen, wie z. B. in der Lebensmittelverarbeitung, Verpackung und industriellen Steuerung und Fertigung, oft in Form eines programmierbaren, automatisierten „Arms“ oder in unterstützenden Strukturen. Im medizinischen Bereich können z. B. robotergesteuerte „Exoskelette“, d. h. äußere Stützstrukturen für den menschlichen Körper, Menschen, denen die Beinkraft oder die Koordination zum Gehen fehlt, unterstützen. Damit kann ihnen eine bequeme und vertraute Möglichkeit geboten werden, sich durch ihren Alltag zu navigieren oder ihnen die Fähigkeit, ihre Beine zu bewegen, verliehen werden. Abb. I.2 zeigt ein Exoskelett bei der Anpassung. 3 Das Adjektiv „humanoid“ setzt sich aus dem lateinischen Adjektiv humānus (dt. menschlich) und dem Suffix -oid zusammen. Letzteres wurde aus dem Altgriechischen Suffix εἶδος/eidos (dt. Gestalt) abgeleitet. Somit ergibt sich die ursprüngliche Bedeutung „menschliche Gestalt“, die heute als „menschenähnlich“ interpretiert wird. 3 Nicht-Humanoide Roboter Saugroboter ROOMBA Drohne Lapraskopie Roboter Kuka Industrieroboter Abb. I.1: Nicht-humanoide Roboter – eine Auswahl Auch die Prothetik wird durch die moderne Robotik revolutioniert: So gibt es bereits bionische Hände, die sich zur einfachen Bedienung über Smartphones steuern lassen. Mittlerweile können Roboter auch die menschliche Arbeit in Krankenhäusern ergänzen, indem sie die wichtigsten Messungen bei Patienten durchführen und so dem Pflegepersonal und den Ärzten mehr Zeit für die Arbeit am Patienten geben. 4 Roboter Abb. I.2: Exoskelett für das Treppensteigen Eine andere Art von Robotern ist dabei, ein viel größerer Teil unserer Welt zu werden: das unbemannte Fluggerät (engl. Unmanned Aerial Vehicle, UAV) oder „Drohne“. Drohnen versprechen eine schnelle und einfache Lieferung in große Ballungsgebiete, so dass Hausbesitzer den Weg zum Laden für die Grundbedürfnisse vermeiden können. Während Drohnenlieferungen von großen Gegenständen in naher Zukunft unwahrscheinlich sind, könnte die Bequemlichkeit der Lieferung auf Abruf diese fliegenden Roboter zu einem Grundbestandteil unseres täglichen Lebens machen. Im Bereich der bodengestützten Mobilität werden Roboterautos die Art und Weise verändern, wie wir über Transport denken. Vollständig selbstfahrende Privatwagen werden die Pendelzeit in produktive oder erholsame Zeit umwandeln, wodurch lange Pendelfahrten weit weniger belastend werden als früher. Wenn lange Pendelfahrten als Bürostunden angerechnet werden könnten, würde auch das Leben in 5 Nicht-Humanoide Roboter vom Arbeitsplatz entfernten Orten zu einer realistischeren Option. Während große Unternehmen hier noch in Privatfahrzeuge investieren, setzen andere bereits auf selbstfahrende Taxidienste. Durch Einsparung der Person hinter dem Steuer in selbstfahrenden Auto können hier erheblich Spareffekte entstehen. Auch im häuslichen Bereich sind bereits nicht-humanoide Roboter im Einsatz. Es gibt nahezu keine theoretische Grenze dafür, wie sehr Roboter den häuslichen Alltag begleiten können: Ein Roboter, der zum Beispiel in der Lage ist Geschirr zu reinigen, kann im Laufe einer Woche Stunden sparen. Die Staubsaug- und Wischfähigkeiten anderer Roboter können dafür sorgen, dass ein Haus ohne menschliches Zutun in einem Top-Zustand bleibt. Eltern könnten einen Spezial-Roboter zu schätzen wissen, der in der Lage ist, Spielzeug nach der Spielzeit aufzusammeln. Roboter entwickeln im Laufe der Zeit immer allgemeinere Fähigkeiten, und es wird vermutlich nicht lange dauern, bis ein einziges Modell eine Vielzahl von Funktionen im Haushalt ausführen kann. Der Traum für diejenigen, die nicht besonders gern kochen, ist ein Kochroboter oder eine Küche, die in der Lage ist, ganze Mahlzeiten zuzubereiten, so dass die Kosten für das Auswärtsessen gespart werden können, ohne Zeit für Kochen und Aufräumen investieren zu müssen. Da derartige ‚Roboterköche‘ mit menschenähnlichen Händen und Armen agieren, können sie mit der richtigen Programmierung praktisch jede Mahlzeit nachstellen. Und wenn sie zusätzlich mit Kameras und anderen Sensoren ausgestattet sind, können die Roboterköche sogar die Essenszubereitung ihrer Besitzer verfolgen, davon lernen und möglicherweise daraus abgeleitete und einzigartige Familienrezepte zubereiten. Noch allerdings befinden sich derartige Roboter im Prototypenstadium, an einen Einsatz ist noch nicht zu denken. Während Roboter eine zunehmende Rolle im Haushalt spielen werden, sind es die Unternehmen, in denen Roboter eine noch größere 6 Roboter Wirkung entfalten können. Selbst Tätigkeiten, die als Schreibtischjobs betrachtet werden, erfordern oft eine beträchtliche Menge an Arbeit im Umgang mit Papier und bei der Ausführung von Aufgaben rund um das Büro. Roboter können einige dieser Bürotätigkeiten übernehmen und so den Mitarbeitern mehr Zeit für weiterführende Aufgaben gewähren. Auch im Sicherheitsbereich sind Roboter vorstellbar. Während in nächster Zeit wohl noch keine ‚RoboCops‘ auf den Straßen patrouillieren werden, finden Roboter zunehmend ihren Weg in Sicherheitsfelder. Ausgestattet mit Kameras, Mikrofonen und 360-Grad Videoaufnahmefähigkeiten, dazu mit der Möglichkeit, gleichzeitig Sicherheitsmeldungen in Echtzeit abzusetzen, bieten sie eine physische Präsenz, die kriminelle Aktivitäten abschrecken kann. So können Sicherheitsroboter zu einer festen Größe in Unternehmen auf der ganzen Welt werden. Auch wenn bewaffnete Roboter, Sicherheitskräfte oder Strafverfolgungsbeamte heute noch unrealistisch sein mögen, sind allgemeine Überwachungsgeräte schon jetzt in vielen Bereichen präsent. Derzeit scheint es aber unwahrscheinlich, dass Roboter jemals die menschliche Interaktion verdrängen können. Allerdings können sie eine Reihe von Nischenrollen spielen. Allein lebende Senioren zum Beispiel fühlen sich oft sehr einsam, und gelegentliche Besuche von Familienmitgliedern reichen nicht immer aus, um diese Lücke zu füllen. Roboter-Begleiter können für soziale Interaktion sorgen und älteren Menschen helfen, ihre sozialen Fähigkeiten zu erhalten. Sie können auch Erinnerungen für Medikamente und andere Anwendungen geben. Roboter können durch ihre „Voice-Chat-Fähigkeiten“ Senioren helfen, mit Familie und Freunden in Kontakt zu bleiben. Zusätzlich können sie Überwachungsdienste anbieten, um schneller auf medizinische Notfälle und andere Probleme zu reagieren. Obwohl Roboter die Gesellschaft nicht so schnell übernommen haben, wie es die dystopische Literatur vorhergesagt hat, haben sie in den letzten Jahren stetige Fortschritte gemacht, und es ist zu erwar- 7 Nicht-Humanoide Roboter ten, dass sie in den kommenden Jahren immer mehr Verbreitung finden werden.4 Eine spezielle Gruppe von Robotern zeichnet sich durch menschen- ähnliches, in manchen Fällen sogar fast menschengleiches Aussehen aus. Diese „humanoiden“ Roboter bilden den Fokus dieses Buches und sollen in den folgenden Abschnitten bezüglich ihrer Kompatibilität mit den Abläufen im menschlichen Alltag beschrieben werden. I.2 Humanoide Roboter Die uralte Idee der Erschaffung eines Roboters mit menschlichem Aussehen wurde durch die Entwicklungen im neuen Bereich der Robotik inzwischen in die Tat umgesetzt. Abb. I.3: Leonardos Ritter 4 Mit dem Job-Futuromat https://job-futuromat.iab.de/ lässt sich ein grober Über blick über Automatisierbarkeit von Berufsbildern (durch zukünftige Technologien wie Roboter) erstellen. 8 Roboter Bereits im 15. Jahrhundert entwarf Leonardo Da Vinci eine Maschine, einen Mechanischen Ritter, als Teil seiner Forschung zur Anatomie des Menschen. Mit Konstruktionen wie denen von „Leonardos Ritter“ (Abb. I.3) und anderen mechanischen Automaten ebnete er den Weg in die Neuzeit. Die ersten Maschinen, die als Roboter bezeichnet wurden (als Teil von Karel Capeks Drama „R.U.R.“), sind ebenfalls Humanoide. In den 1920er Jahren wurde der erste Roboter im Vereinigten Königreich gebaut. Dieser Roboter namens „Eric“ hatte auch einen menschlichen Körper und konnte einfache Aufgaben bewältigen, beispielsweise aufstehen oder einzelne Körperteile bewegen. Jenseits des Atlantiks produzierte die Westinghouse Corporation mit „Elektro“ einen humanoiden Roboter, der das Laufen, das Sprechen und andere, damals als wichtig erachtete, menschliche Handlungen beherrschte, wie das Rauchen einer Zigarette (Abb. I.4). Elektro zählte zu den Hauptattraktionen der Weltausstellung 1939. Abb. I.4: Elektro 9 Humanoide Roboter Die Ergebnisse all dieser wegbereitenden Bemühungen hatten begrenzte Fähigkeiten und würden vermutlich nicht mehr der modernen Definition eines Roboters entsprechen, sondern eher als Automaten bezeichnet werden. Nichtsdestoweniger ist ihre Bedeutung für zukünftige Erfindungen unbestreitbar. Obwohl die Originalentwürfe und Namen für Roboter der westlichen Kultur entspringen, ist Japan das Land mit dem größten Einfluss auf die Entwicklung humanoider Roboter. In den 1970er Jahren entwickelten Wissenschaftler der Waseda-Universität WABOT-1, „den ersten vollmaßstäblich anthropomorphen Roboter“, der kommunizieren und sich mit beiden Beinen bewegen konnte. Sein Nachfolger WABOT-2 wurde in den 1980er Jahren entwickelt, um zu beweisen, dass Roboter auch anspruchsvolle menschliche Tätigkeiten, wie das Spielen eines Tasteninstrumentes, ausführen können. Abb. I.5: WABOT-1 und WABOT-2 In den 1980er Jahren begann auch der japanische Konzern Honda mit der Entwicklung humanoider Roboter. Der erste Teil der Forschung beschäftigte sich mit Verbesserungen der Bewegung bei den Honda- 10 Roboter Modellen P1, P2 und P3. Die Entwicklung erreichte ihren Höhepunkt mit der Einführung von ASIMO (Advanced Step in Innovative MObility), einem der bis heute bekanntesten humanoiden Roboter der Geschichte, der seither stets weiterentwickelt wird. ASIMO wiegt 50 kg und ist 1,30 m groß. Er befindet sich somit auf Augenhöhe mit einem sitzenden Erwachsenen und ist perfekt für die menschliche Umgebung geeignet (siehe Abb. I.6). Abb. I.6: ASIMO Er kann daher auch ideal als Hilfe im Haushalt eingesetzt werden, beispielsweise für Menschen, die im Rollstuhl sitzen oder das Bett nicht verlassen können. Mit seinen beweglichen Gelenken in Armen und Händen kann ASIMO Lichtschalter betätigen, Türen öffnen, Gegenstände tragen oder Wagen schieben. Außerdem kann ASIMO mit seinen visuellen Sensoren Hindernissen ausweichen, sowie Treppenstufen auf und ab gehen. Der Roboter kann sich Gesichter einprägen, 11 Humanoide Roboter diese speichern und somit Menschen identifizieren und voneinander unterscheiden. ASIMO ist damit einer der am weitesten entwickelten Roboter, aber auch einer der teuersten. Sein Kaufpreis liegt bei stolzen 2,5 Millionen US Dollar. Damit kommt er für die Verwendung im Alltag wohl eher nicht in Frage. I.2.1 Humanoid, Android und Geminoid Humanoide Roboter sind, wie dargestellt, charakterisiert durch menschliche Form, menschliches Verhalten und menschliche Emotionalität. Die Übertragung menschlicher Merkmale, Emotionen oder Absichten auf Roboter, auch Anthropomorphismus genannt, ist dabei von Roboter zu Roboter unterschiedlich stark ausgeprägt und damit mehr oder weniger nah am menschlichen Vorbild. Durch die Menschlichkeit ihres Designs können humanoide Roboter auf menschliche Art ihre Umgebung sowie andere Menschen und Roboter darin wahrnehmen, begreifen und beeinflussen. Wenn man sich für ein oder mehrere Modelle als Vorbilder für das Design entschieden hat, ist eine weitere Frage, wie originalgetreu die gewählten Vorbilder im Roboter nachgebaut werden sollen bzw. können. Oftmals interessieren nur Funktion und/oder Aufbau des Modells, die man im Roboter realisieren möchte. Bisweilen liegt die Intention der Designer aber auch darin, das Original möglichst getreu kopieren zu wollen. Bildet der Mensch das zu kopierende Vorbild, dann ist das Ergebnis ein sog. „Android“, ein humanoider Roboter, der möglichst wenig vom Menschen zu unterscheiden ist.5 Um bei Androiden, deren Geschlecht ja auf Grund ihre Körpermerkmale klar erkennbar ist, geschlechts-spezifische Unterscheidun- 5 Das Adjektiv „android“ setzt sich aus der griechischen Form ἀνήρ/aner (dt. Mensch, Mann) und dem Suffix -oid zusammen. Letzteres wurde aus dem altgriechischen Suffix εἶδος/eidos (dt. Gestalt) abgeleitet. Es ergibt sich so die ursprüngliche Bedeutung „Menschengestalt“. 12 Roboter gen treffen zu können, ist für weibliche Androide zusätzlich das Attribut „gynoid“ (gr. γυνή/gyne „Frau“) eingeführt worden. Bei „Geminoiden“6 gehen die Entwickler noch einen Schritt weiter. Geminoide sind Androide, die nach einem bestimmten menschlichen ‚Modell‘ gebaut wurden, also aussehen wie eine existierende Person, oft mit dem Ziel, als ferngesteuerte Androiden einer lebenden Person zu agieren.7 Abb. I.7 exemplifiziert die Klassifikation humanoider Roboter mit je einem Beispiel und den dazugehörigen Merkmalen. Name Geminoid-DK Nadine NAO humanoid + + + android + + geminoid + - gynoid - + 0 Abb. I.7: Humanoide Roboter – Beispiele 6 Das Adjektiv „geminoid“ setzt sich aus dem lateinischen Substantiv geminus (dt. Zwilling) und dem Suffix -oid zusammen. Zusammen mit dem altgriechischen Suffix εἶδος/eidos (dt. Gestalt) ergibt sich die ursprüngliche Bedeutung „Zwillingsgestalt“, die heute für Roboter, die einem existierenden Menschen täuschend ähnlich sehen, verwendet wird. 7 So ist ein Einsatzziel des „Ishiguro-Geminoiden“ (Abb. I.10) die Option per Fernsteuerung (Tele-Operation) bei Konferenzen Vorträge zu halten. 13 Humanoide Roboter Während alle Geminoide gleichzeitig auch Androide und Humanoide sind, ist dies umgekehrt nicht der Fall. Abb. I.8 stellt diese Bezüge noch einmal dar. Abb. I.8: Humanoide Roboter Bei Androiden und Geminoiden ist zu beachten, dass vollständige Originalgetreuheit auf dem aktuellen Stand von Technik und Wissenschaft für kein organisches Vorbild realisierbar ist. Der Eindruck des Künstlichen ist spätestens beim zweiten Hinsehen in der Regel nicht zu vermeiden, wie auch das Bild von „BuSaif “, dem an der United Arab Emirates University (UAEU) entwickelten Android zeigt (Abb. I.9). Der japanische Professor Masahiro Mori stellte in diesem Zusammenhang die Theorie auf, dass in solchen Situationen die anfängliche Empathie schnell in Abneigung umschlagen kann. Sobald Menschen ‚erkennen‘, dass der Roboter nicht menschlich ist, oder sich nicht wie ein Mensch verhält, sehen sie diesen als leblosen Körper oder ‚Zombie‘ an und wollen folglich Abstand halten. Mori begründet dieses Verhalten als Teil unseres Selbsterhaltungstriebes. Menschen haben während der Evolution gelernt, tote Körper zu meiden. Da diese menschliche Auffassung plötzlich von einem anfänglichen Höhepunkt abfallen kann, ist dieses Phänomen als „Uncanny Valley“ (dt. unheimliches Tal) bekannt. Abb. I.9: BuSaif, der Android der UAEU Abb. I.10: Das unheimliche Tal (engl. Uncanny Valley) [V.I.2] 14 Roboter Abb. I.9: BuSaif, der Android der UAEU Abb. I.10: Das unheimliche Tal (engl. Uncanny Valley) [V.I.2] 15 Humanoide Roboter Mittlerweile gehen trotz des „Uncanny-Valley-Effekts“ viele Ingenieure und Designer auf die ursprüngliche Idee zurück, möglichst menschliche Roboter zu bauen. So sind Androide, wie die in Abb. I.7 gezeigte Gynoide „Nadine“, die man im Paderborner Heinz-Nixdorf Museum bestaunen kann, humanoide Roboter, welche das menschliche Aussehen genauer nachahmen und dabei versuchen, so menschlich wie möglich zu sein. Als weiteres Beispiel ist in Abb. I.11 die Gynoide „Sophia“ aufgeführt, die schon vor den Vereinten Nationen gesprochen hat und der 2017 (wohl eher als Werbegag) die saudi-arabische Staatsangehörigkeit verliehen wurde. Abb. I.11: Die Androidin (gynoid) „Sophia“ Geminoide, wie der in Abb. I.7 gezeigte „Geminoid-DK“, ein ‚maschineller Klon‘ des dänischen Robotik-Spezialisten Hendrik Schärfe, werden gegenwärtig eher zu Forschungszwecken einsetzt. Der weltweit bekannteste Schöpfer solcher Geminoide ist Professor Hiroshi Ishiguro, der in Abb. I.12 mit seinem fast identischen Ebenbild zu sehen ist. 16 Roboter Abb. I.12: Professor Ishiguro (links) und sein Geminoid Der „Geminoid-DK“ Professor Hendrik Schärfe hat einen Roboter, der ihm bis aufs Haar gleicht. Sein Name: „Geminoid-DK“ . Er bewegt Kopf und Gesicht, blinzelt und lächelt wie ein Mensch. Sprechen kann er auch. Prof. Schärfe steuert sein zweites Ich per Tele-Operation, d. h. über USB-Kabel per Laptop, überträgt er seine Stimme per Lautsprecher. Die Lippen bewegen sich passend zu den Lauten. So verblüffend echt, dass der Professor seinen Zwilling sogar mal eine Vorlesung halten ließ. Einem Großteil der 150 Studenten soll das erst nach 45 Minuten gedämmert sein. Für den dänischen Informatiker ein wichtiges Experiment: Denn er erforscht, wie Menschen auf Roboter reagieren. Schärfe glaubt: „Bald haben die meisten Menschen einen eigenen Roboter zu Hause. Da sollten wir wissen, mit welcher Maschine wir uns wohlfühlen.“ Noch ist das für einen Normal-Haushalt eher unerschwinglich: Derzeit sind 150.000 Euro, inklusive Labor-Ausrüstung für den Robo-Prof, [V.I.3] 17 Humanoide Roboter der in den Laboren von Professor Ishiguro in Japan konstruiert wird, anzusetzen. Die Beschaffenheit und der Erfolg der Mensch-Roboter-Interaktion sind stark abhängig vom Design und der Erscheinung des Roboters. Alle humanoiden Roboter sind so gebaut, dass sie dem menschlichen Körper ähneln, oder ihn komplett imitieren. Es wird vermutet, dass dies dabei hilft, eine erste Bindung mit den Menschen herzustellen. Während dieses Ziel näher rückt, steigen jedoch gleichzeitig die Erwartungen der Menschen an die Roboter. Diese können aber – wie in den Beispielen dieses Buches gezeigt wird – zum Großteil noch nicht erfüllt werden. Zumeist entscheiden sich die Entwickler hinsichtlich der Vollständigkeit des zu bauenden Roboterkörpers bestimmte Komponenten der Vorbilder zu integrieren oder auch wegzulassen. Entsprechend wird der resultierende Körper bestimmte Eigenschaften und Fähigkeiten seiner Vorbilder besitzen, andere dagegen vermissen. Spielt beispielsweise Mobilität für den Roboter keine Rolle, werden Beine, Räder u. ä. nicht benötigt. Wenn der Roboter keine Gegenstände manipulieren oder kommunikative Gesten darstellen muss, können Arme und Hände in ihrer Beweglichkeit eingeschränkt werden oder man kann auf diese Gliedmaßen vollständig verzichten. I.2.2 Die Fähigkeiten Humanoider Roboter Viele Menschen denken beim Begriff „Roboter“ an Figuren aus Science-Fiction Filmen wie z. B. WALL-E, Transformers oder Star Wars. Die Roboter aus diesen Filmen besitzen meist vielfältige Fähigkeiten und sind fast menschlich, manchmal sogar übermenschlich. Dieses Bild entspricht jedoch nicht der heutigen Realität. Humanoide Ro- 18 Roboter boter können nicht ohne Menschen denken oder handeln. Eine Programmierung durch Menschen ist notwendig. Im Vergleich zu den Robotern aus Hollywood-Filmen sind ihre Fähigkeiten begrenzt. In den folgenden Abschnitten werden einige dieser Fähigkeiten an Hand von Videos mit NAO-Robotern exemplifiziert. I.2.2.1 Die Sprechfähigkeit Die maschinelle Befähigung zum Sprechen, also die künstliche Nachahmung der menschlichen Stimme durch Maschinen, wird als Sprachsynthese bezeichnet. Diese wird genutzt, um textuelle Informationen zu versprachlichen und ist u. a. in assistierenden Technologien im Einsatz, um z. B. Sehbehinderten Texte vorzulesen. Aber auch die handelsüblichen Smartphones, Computer oder Laptops besitzen Sprachausgabesoftware für den Informationsaustausch zwischen Nutzer und Gerät. Die Technik hinter der Sprachsynthese greift auf eine Datenbank mit Audiodateien zurück und verbindet beim Versprachlichen die entsprechenden Dateien, um den Text wiederzugeben. Bei der Versprachlichung eines Textes entfernt die Software alle Ambiguitäten, die bei der Aussprache eines Wortes entstehen könnten. Danach wählt die Software Phoneme aus, um den Text in Laute zu konvertieren. Der letzte Schritt ist das Vorlesen des Textes in einer menschlichen bzw. menschenähnlichen Stimme. Der Nutzer kann oft noch die Geschwindigkeit und das Geschlecht der Stimme bestimmen. Dieser künstlichen Stimme kann man in der Regel aber keine Gefühle entnehmen, weil ihr häufig die entsprechende Intonation fehlt, sodass sie sehr monoton klingt. I.2.2.2 Die Dialogfähigkeit Wenn wir uns unterhalten, produzieren wir Laute, die ein Gesprächspartner erkennt und diesen auch zur Produktion von Lauten als Ant- [V.I.4] [V.I.5] 19 Humanoide Roboter wort animiert. Jedes Mal, wenn wir einen Dialog führen, analysieren wir unseren Gesprächspartner körperlich sowie sprachlich und passen unsere Antworten entsprechend spontan an. Zum Beispiel kann die Frage „Wieso hast du das gemacht?” in verschiedenen Situationen anders verstanden werden, z. B. dass eine Person verärgert oder überrascht ist. Diese Informationen werden im Gehirn zu Antworten verarbeitet. Humanoide Roboter haben weder entsprechende Organe, noch können sie Laute als Wörter erkennen und diese entsprechend verarbeiten. Sie erkennen gesprochene Sprache durch ein Speech Recognition System (dt. Spracherkennungssystem). Dazu werden Geräusche über die Mikrofone aufgenommen und mit den im System gespeicherten Informationen abgeglichen, um eventuelle Stichworte zu erkennen, die wiederum als Befehl zur Ausführung einer bestimmten Handlung bzw. Reaktion wahrgenommen werden. Über die Mikrofone und Lautsprecher können sie sich ‚mitteilen‘, ihrem Gesprächspartner Informationen geben oder sich mit ihnen unterhalten. I.2.2.3 Mehrsprachigkeit Zwar haben humanoide Roboter nicht die angebliche Sprachfähigkeit des nebenstehend gezeigten C3PO-Roboters aus den Star Wars Filmen,8 allerdings lassen sich schon heute auf einigen Robotern mehrere Sprachpakete installieren und bei Bedarf aktivieren. So lassen sich auf den SoftBank-Robotern NAO und Pepper mehr als ein Dutzend Sprachen installieren, wovon allerdings nur maximal vier gleichzeitig genutzt werden können. 8 In der Star Wars Episode V, Szene „Imperial Probe Droid“, prahlt der humanoide Roboter C3PO, er beherrsche 6 Millionen Kommunikationsprogramme! / 20 Roboter Vorsicht bei unbekannten Wörtern Ein generelles Problem für die Sprachsynthese, sowohl bei Maschinen als auch beim Menschen ist die Aussprache unbekannter Wörter, die sich nicht ohne Weiteres in eine Fremdsprache übersetzen lassen. Das gilt insbesondere für Namen. So werden deutsche Namen wie „Sabine“ auf Englisch zumeist falsch ausgesprochen: */sə‘bi:n/ statt /za’bi:nə/. Dass man sich diesen Effekt im Aussprachetraining allerdings auch zunutze machen kann, zeigen wir in Abschnitt V.5.4.1. I.2.2.4 Das Varietäten Problem Probleme kann es bei der Spracherkennung von Dialekten geben. Selbst Menschen, die die gleiche Sprache sprechen, geraten hin und wieder in Situationen, in denen sie das Gegenüber aufgrund ihres Dialekts nur schwer oder gar nicht verstehen, oder es kommt auf diese Weise zu Missverständnissen. Humanoide Roboter haben ein sprachspezifisches ‚Klangmuster‘ einprogrammiert, vergleichbar mit einer Vorlage davon, welche Laute in einer Sprache vorkommen, wie diese im Idealfall klingen, und in welcher Verbindung miteinander diese auftreten können. Die vernommenen Klänge vergleichen sie mit diesem Muster und können die auditiven Informationen darauf basierend einordnen bzw. verstehen. Weicht ein Input zu weit von diesem Muster ab, kann der Roboter die Klänge nicht mehr genau zuordnen und versteht den Menschen falsch oder gar nicht. I.2.2.5 Gefühle Kurz gesagt: humanoide Roboter können nicht fühlen wie Menschen. Sie sind aber in der Lage, menschliche Emotionen nachzuahmen bzw. vorzutäuschen. Wenn ein Mensch beispielsweise „Mir geht es heute [V.I.6] 21 Humanoide Roboter gar nicht gut“ sagt, kann ein Roboter durchaus mitfühlend seufzen und folgende Antwort geben: „Das tut mir Leid! Ich hoffe sehr, dass es dir bald wieder besser geht“. Tatsächlich fühlt der Roboter aber nicht mit dem Menschen mit, sondern er reagiert lediglich auf einen vorprogrammierten Impuls mit einer vorprogrammierten Antwort. In seinem Programm kann z. B. definiert sein, dass er, wenn er den Satz „Mir geht es heute gar nicht gut“ oder einen sinngemäß ähnlichen Satz hört, die oben beschriebene Reaktion ausführen soll. I.2.2.6 Bewegung Welche Bewegungen ein humanoider Roboter ausführen kann, ist abhängig von seinem Aufbau und somit von Modell zu Modell verschieden. Da humanoide Roboter nicht nur ein menschenähnliches Aussehen, sondern auch ein vergleichbares Verhalten haben sollen, können viele von ihnen ihren Kopf, ihre Arme oder auch die Beine bewegen. Oft sind diese auch mit flexiblen Gelenken ausgestattet, die eine genauere Nachahmung der menschlichen Bewegung zulassen. Einige können sogar feinere Bewegungen, sowie das Heben und Senken einzelner Finger, das Bewegen der Augen oder das Öffnen und Schließen eines Mundes durchführen. In ihrer Fortbewegungsmöglichkeit sind humanoide Roboter oftmals noch relativ eingeschränkt, u. a. wegen ihrer begrenzten Akkukapazität. Während die Erkennung von Objekten und deren Umgehung relativ problemlos funktioniert, gestaltet sich die Überwindung oder gar Beseitigung nicht umgehbarer Hindernisse häufig als problematisch. Ebenso stellt das Heben von Gegenständen wie z. B. eines Kugelschreibers, und die anschließende Nutzung desselben, für viele Roboter derzeit eine schwierige Aufgabe dar. [V.I.7] 22 Roboter NAO und der RoboCup Durch seine vielen Gelenke besitzt der humanoide Roboter NAO die Fähigkeit, sich nahezu wie wir Menschen bewegen zu können. Er kann aufstehen, sich hinsetzten, laufen, aber auch hinfallen. Durch seinen integrierten ‚Fallschutz‘ versetzt er sich während eines Sturzes in eine Sicherheitspose und ‚verletzt‘ sich so meistens nicht. Dass NAO-Roboter ziemlich beweglich sind, kann man auch daran sehen, dass seit dem Jahr 2008 der RoboCup, also die Roboter Fußballweltmeisterschaften, mit diesem Modell ausgetragen werden. I.2.2.7 Sensorik/Wahrnehmung Roboter können ihre Umgebung über Sensoren mit unterschiedlichen Funktionen wahrnehmen. Während Kameras als ‚Augen‘ dienen und visuelle Signale einfangen, übernehmen Mikrofone die Wahrnehmung von Geräuschen und Klängen und fungieren somit als ‚Ohren‘ eines Roboters. Wie viele Augen und Ohren ein Roboter hat, kann stark variieren und hängt von seinem vorgesehenen Einsatzgebiet ab. In beiden Schnittstellen zur Umgebung („Eingabe“ und „Ausgabe“) treten fast zwangsläufig Mehrdeutigkeiten, Ungenauigkeiten und Verluste auf, die kompensiert werden müssen. In beiden Fällen besteht eine bewährte Vorgehensweise darin, mehrere Ein- bzw. Ausgabekanäle miteinander zu kombinieren. Auch aus diesem Grund sind gerade humanoide Roboter mit Sensoren und Aktuatoren ausgestattet, die mehrere Kanäle oder menschliche Sinne abdecken, wie z. B. Sehen, Hören und Tasten. Daneben stehen Robotern noch weitere nicht-menschliche Sinne zur Verfügung, darunter Sonar oder Laserabtastung. [V.I.8] [V.I.9] 23 Humanoide Roboter I.2.2.8 Gefühle (Haptik) Roboter können wie wir Menschen auch fühlen, d. h. sie merken wenn sie angefasst werden. In vielen Fällen werden hier einfache Drucksensoren benutzt. Diese registrieren Berührungen und lassen den Roboter in gewisser Weise seine Umgebung ‚spüren‘. Wie viele dieser Sensoren ein Roboter besitzt, oder ob der gesamte Körper damit überzogen ist, variiert zwischen Robotermodellen sowie deren Einsatzszenarien. NAO „fühlt“ NAOs Kopf und Hände (bzw. Handrücken) sind mit jeweils drei taktilen Sensoren ausgestattet, die Berührungen registrieren. Auch seine Füße sind mit taktilen Sensoren (engl. Bumpers) ausgestattet. Darüber hinaus verfügt NAO in seiner Brust über jeweils zwei Ultraschallsender und -empfänger (= Sonar), mit denen er Entfernungen zu Objekten und Hindernissen erkennt. Damit kann er die Distanz zu Objekten in seiner Nähe bestimmen (Reichweite: 80 cm). Weitere Sensoren messen innere Zustände des Roboters, wie z. B. die Temperatur seiner Komponenten oder den Batteriestand. Eine ganz besondere Art solcher taktiler Sensoren kommt von der österreichischen Firma Blue Danube Robotics, welche die sogenannte „Airskin“ erfunden hat. Dabei handelt es sich um taktile Sensoren, die auf verschiedenen Robotertypen, z. B. auf die EOAT (End of Arm Tooling) industrieller Robotern installiert werden können. AIRSKIN hat druckempfindliche und robuste Sensoren und durch diese Sensoren wird die Interaktion von Menschen und Roboter sicherer. So reagiert der Kollisionssensor z. B. bei einer Kollision zwischen Roboter und Mitarbeiter oder einem Objekt innerhalb von wenigen Millisekunden und veranlasst einen Not-Stopp. Außerdem dämpfen die weichen Pads die Kraftwirkungen, die bis zum völligen Stillstand der Maschine auftreten können. Die Installation der Sensoren ist nicht zuletzt auf Grund ihrer Flexibilität relativ unproblematisch. [V.I.11] [V.I.10] 24 Roboter Abb. I.13: Airskin im Einsatz I.3 Einfache Humanoide Roboter In den folgenden Abschnitten sollen einige ausgewählte, marktfertige und im Handel verfügbare humanoide Roboter im Detail vorgestellt werden. Bei diesen Robotern handelt es sich um kleine, extrem handliche Roboter, die z. T. sogar weniger als 40 cm groß sind, aber auch um größere Modelle, die mit 1,20 m Körpergröße dem Menschen in Punkto Körpergröße und Gewicht fast ebenbürtig sind. Während die kleineren Modelle durch ihre Handlichkeit bestechen und nahezu keinerlei logistischen Aufwand benötigen, sind größere Modelle, allein schon aus Gründen der Transportproblematik, weniger flexibel einsetzbar. Wie sich Größe, Logistik und weitere Aspekte auf die Einsatzfähigkeit von humanoiden Robotern auswirken, ist Gegenstand der folgenden Kapitel. Ein Tipp zur Namensgebung von Robotern Einfache humanoide Roboter sind, was ihre körperlichen Merkmale angeht, in der Regel geschlechtsneutral. Das sollte sich auch in ihrer Namensgebung widerspiegeln, und es sollten geschlechtsspezifische Namen wie Max oder Emma vermieden werden. Darüber hinaus sollten Roboternamen so gewählt werden, dass sie sprach- übergreifend ausgehend vom Schriftbild gleichermaßen ausgesprochen werden können und zudem aus einfachen offenen Silben be- [V.I.11] 25 Einfache Humanoide Roboter stehen. Namen wie YUKI oder CODY für die Roboter des Projekts H.E.A.R.T. erfüllen diese Kriterien par Excellence. Poppy ist ein bi-pedaler, d. h. sich auf zwei Beinen bewegender, humanoider Roboter als Bausatz mit einem breiten Anwendungsspektrum. Primär wird Poppy für Testanwendungen in Bereichen der Mathematik, Robotik und Mechanik genutzt. Im Gegensatz zu anderen humanoiden Robotern besitzt Poppy anstelle von Gesichtsstrukturen einen LCD-Screen, über den er Ausdrücke seiner Emotionen anzeigen kann. Poppy Technische Daten Größe: 83 cm Gewicht: 3,5 kg Hersteller: Generation Robots Betriebssystem: Linux Abb. I.14: Poppy mit technischen Daten Um mit Poppy zu kommunizieren ist die Nutzung der visuellen Programmierumgebung „Scratch“ oder die direkte Programmierung mit Python notwendig.9 Für den Austausch unter Programmierern gibt es mehrere Plattformen, u. a. eine Open-Source Python Bibliothek für vorgefertigte Anwendungen. 9 Zur visuellen Programmierung siehe Abschnitt V.4. [V.I.12] 26 Roboter DARwIn-OP Technische Daten Größe: 45,5 cm Gewicht: 2,9 kg Hersteller: Robotis Betriebssystem: Linux Abb. I.15: DARwIn-OP mit technischen Daten DARwIn-OP ist ein humanoider Roboter mit Fokus auf angewandter Forschung und Lehre. Alle eingebauten Soft- und Hardwarekomponenten stehen unter einer Open-Source Lizenz. Programmiersprachen sind C++, Python, LabView, matlab oder Roboplus, die in-house Software von Robotis. Auch hier gibt es eine Entwickler-Plattform namens „robotsource“. Darwin Mini Technische Daten Größe: 27 cm Gewicht: 0,6 kg Hersteller: Robotis Betriebssystem: Open CM Abb. I.16: Darwin Mini mit technischen Daten [V.I.13] [V.I.14] 27 Einfache Humanoide Roboter Darwin Mini ist ein über eine Android-App mittels Bluetooth steuerbarer Mini-Roboter. Er ist als Bausatz erhältlich, frei programmierbar und lässt sich ganz nach den Benutzerwünschen aufbauen. Professor Einstein Technische Daten Größe: 27 cm Gewicht: 1,7 kg Hersteller: Hanson Robotics Betriebssystem: Android Abb. I.17: Professor Einstein mit technischen Daten Professor Einstein ist ein humanoider Unterhaltungsroboter, der auf individuelle Konversationen spezialisiert ist. Der Roboter ist in der Lage zu laufen, zu gestikulieren und vorhandene Gesichtsstrukturen für den Ausdruck von Emotionen zu nutzen. Die Roboter-Mensch Interaktion kann ebenso über Smart-Devices erfolgen, Voraussetzung dafür ist die Nutzung der „Stein-O-Matic App“. I.3.1 SoftBank Robotics Zwei humanoide Roboter haben mittlerweile anwendungsübergreifend eine große globale Verbreitung erreicht. Beide werden von der Firma SoftBank Robotics hergestellt und sind sowohl in der Forschung als auch im täglichen Einsatz sichtbar. Diese beiden Roboter, NAO und Pepper, werden in den folgenden Abschnitten detailliert vorgestellt. [V.I.15] 28 Roboter I.3.1.1 NAO NAO ist bereits seit 2006 als der erste humanoide Roboter aus dem Haus SoftBank Robotics verfügbar. Er ist 58 cm groß und verfügt über einen beweglichen Körper, der ihm eine relativ große Beweglichkeit ermöglicht. Sollte NAO einmal hinfallen, kann er problemlos wieder aufstehen. Das ermöglichen ihm viele einzelne Motoren in seinen Gelenken. Abb. I.18 zeigt NAO mit seinen Bestandteilen. Abb. I.18: NAO und seine technischen Daten 29 Einfache Humanoide Roboter Herzstück für die Kommunikation mit Menschen sind NAOs vier Mikrofone und seine zwei Lautsprecher. Die Kommunikation kann jedoch auch über haptische Eindrücke eingeleitet werden, welche NAO über insgesamt 11 Tastsensoren, wahrnimmt. Diese befinden sich am Kopf, an den Händen und den Füßen. Zwei Ultraschallsensoren helfen NAO außerdem, seine Umgebung abzusuchen und mögliche Hindernisse zu erkennen. Visuelle Eindrücke nimmt NAO über zwei Kameras wahr, die sich nicht in seinen Augen, sondern auf Mund- und Stirnhöhe befinden. An der Stelle seiner Augen befinden sich dafür mehrere LEDs,10 die durch ihre Farbgebung dem menschlichen Gegenüber signalisieren, ob NAO aufnahmefähig ist, etwas verstanden hat, oder ob etwa eine Fehlermeldung aufgetreten ist. Abb. I.19 stellt die für NAO.V6 Roboter werkseitig eingestellten ‚Kommunikationsfarben‘ dar.11 empfangsbereit nimmt Menschen wahr nicht auf Empfang Abb. I.19: Die Kommunikationsfarben von NAO.V6 Von NAO wurden seit seiner Markteinführung immer wieder überarbeitete Versionen mit verschiedenen Prozessoren, Kameras sowie Freiheitsgeraden entwickelt. Die neueste Version ist NAO.V6. Sie erschien 2018 auf dem Markt und unterscheidet sich von den Vorgängermodellen durch einen stärkeren Akku, eine bessere Rechenleistung 10 LED: (engl. light-emitting diode, dt. lichtemittierende Diode) 11 Bei früheren NAO-Versionen, z. B. bei den bekannten NAO-V5 Robotern gab es zusätzlich die Augenfarbe grün, die signalisierte: „NAO hat verstanden“. 30 Roboter und hochwertigere Kameras. Außerdem arbeitet NAO.V6, genau wie sein großer Bruder Pepper, mit einer höheren Version des Betriebssystems NAOqi 2.8 (NAO.V6) bzw. NAOqi 2.9 (Pepper). Frühere NAO-Versionen, z. B. NAO.V3, unterscheiden sich abgesehen von der äußeren Körperfarbe kaum von den neuen Modellen. Lediglich die zu Grunde liegenden NAOqi-Versionen haben sich verändert. NAOs große Popularität ist zu einem großen Teil der Tatsache geschuldet, dass er sowohl leicht mit einer visuellen Programmierumgebung entwickelt, zugleich aber auch uneingeschränkt durch verschiedene Programmiersprachen programmiert werden kann. Die visuelle Programmierung Choregraphe, die nach einem Baukastensystem aufgebaut ist, hat sich auch für Neulinge der Robotik und des Programmierens als guter Einstieg bewiesen und bietet gleichzeitig für Fortgeschrittene die Möglichkeit, erste Schritte in der Programmierung des Roboters mit Python zu gehen (siehe Abschnitt V.4.1). Abb. I.20: Schnappschuss vom RoboCup 2016 31 Einfache Humanoide Roboter Neben der visuellen Programmierung über Choregraphe lässt sich NAO auch frei über die Programmiersprachen C++, Python und Java programmieren. Die Teilnehmer des RoboCups arbeiten beispielsweise mit C++, was die Möglichkeiten des Roboters allumfänglich ausschöpft, dem Programm jedoch auch eine enorme Komplexität verschafft. Neben zahlreichen Forschungsprojekten und dem Einsatz in speziellen Labor-Settings an Universitäten wird NAO auch in den Bereichen Gesundheit und sogar im Kundenservice eingesetzt. In der Bildung allerdings beziehen sich die meisten Einsatzmöglichkeiten auf die Verwendung von NAO-Robotern als Werkzeug zur Erlangung bzw. Verbesserung des algorithmischen Denkens von Schülern und Studenten. Eine besondere Form dieser Werkzeugnutzung ist der RoboCup. Seit 2007 nehmen zahlreiche, vorwiegend universitäre, Teams an dieser ‚Roboter-Fußballweltmeisterschaft‘ teil, nicht etwa um zu zeigen, wie gut Roboter Fußball spielen können, sondern um ihre höchst anspruchsvollen Programme auf den Prüfstand zu stellen. I.3.1.2 Pepper Pepper kann mit seinen 1,20 m Körpergröße als ‚großer Bruder‘ von NAO betrachtet werden. Er wurde ebenfalls von der Firma SoftBank Robotics entwickelt und nutzt, zumindest für alle Modelle, die vor 2019 hergestellt wurden, die von NAO bekannte Entwicklungsumgebung Choregraphe. Seit 2019 werden zusätzlich Pepper-Modelle ausgeliefert, die per Android/Java programmiert werden. Abb. I.21 stellt Pepper mit seinen wesentlichen Komponenten dar. Rein äußerlich sieht man, abgesehen von einer permanent sichtbaren Anzeige der identifizierten Benutzer-Spracheingabe über eine „Speech Bar“ auf dem Tablet und der Nutzung der Schulter-LEDs anstelle der Augen-LEDs bei Pepper-Modellen unter Android keine gravierenden Unterschiede zwischen diesem und früheren Pepper-Modellen. 32 Roboter Abb. I.21: Pepper und seine Komponenten 33 Einfache Humanoide Roboter Pepper ist räumlich ziemlich flexibel einsetzbar. Dies gilt jedoch primär für das Innere von Gebäuden. Außeneinsätze sind dagegen problematisch wegen Peppers Empfindlichkeit gegenüber Umwelteinflüssen (z. B. Feuchtigkeit, Temperaturschwankungen, Untergrundbeschaffenheit). Außerdem kann die sensorische Wahrnehmung des Roboters durch Umgebungsfaktoren, wie z. B. Gegenlicht oder irritierende Objekte, stark beeinträchtigt werden. (Die letztgenannte Einschränkung gilt übrigens auch für den Einsatz im Inneren von Gebäuden.) Pepper im HR-Fernsehen In seiner ersten Live-Sendung „Hallo Hessen“ im Januar 2017 war Pepper bis wenige Minuten vor Sendungsbeginn extrem abgelenkt, schaute nur in Richtung Studiodecke und wollte partout, auch nach An- und Abschalten von ausgewählten Studiolampen, keinen Kontakt mit seinen Gesprächspartnern herstellen. Kurz vor Beginn der Sendung konnte das Problem gelöst werden: Eine ballförmige weiße Schlafzimmerlampe hatte Pepper mit einem menschlichen Gesicht verwechselt. Nach Demontage der Lampe wandte sich der Roboter doch noch rechtzeitig seinen menschlichen Gesprächspartnern zu. Pepper kann durch eigenständige Erkundung und Kartierung seine Umgebung kennenlernen und die resultierende Karte für die Navigation durch diese Umgebung nutzen. Er ist mit zwei Armen und Händen mit jeweils fünf Fingern ausgestattet. Damit kann er kleine Objekte greifen, anheben, mit seiner Hand drehen und an einem anderen Ort ablegen. Allerdings sollten diese Objekte nicht schwerer als 500 Gramm sein, und die Manipulation von Objekten ist auch nicht sonderlich präzise. Das Schleppen von Lasten ist Pepper definitiv nicht möglich. In erster Linie haben Peppers Arme und Hände Kommunikationsfunktion, sie sind keine 34 Roboter Werkzeuge für die Verrichtung manueller Arbeiten, sondern sie dienen primär der Unterstützung von Sprache durch Gesten. Der Hauptzweck von Pepper und somit seine primäre Kompetenz ist die Interaktion mit Menschen. Neben der natürlichsprachlichen Dialogfähigkeit in mehreren Sprachen ist die Fähigkeit, Emotionen von Menschen zu erkennen und eigene Emotionen auszudrücken, ein weiteres herausragendes Merkmal von Pepper. Seine sprachlichen Darbietungen können, abhängig von der Programmierung der Applikation, bimodal sein, indem Pepper seine gesprochenen Beiträge durch non-verbales Kommunikationsverhalten, insbesondere Gesten, komplementiert. Ein menschliches Niveau der verbalen und non-verbalen Kommunikationskompetenz sollte jedoch nicht erwartet werden, insbesondere nicht hinsichtlich Flexibilität und Robustheit. Gesprochene Spracheingaben und -ausgaben lassen sich in Dialogen zwischen Mensch und Roboter einsetzen. In diesen Dialogen reagiert Pepper auf erkannte gesprochene Stimuli mit entsprechenden vordefinierten Antworten, die zufällig variiert werden können. Struktur und Thema des Dialogs, die möglichen Benutzereingaben und die möglichen Antworten des Roboters werden vom Entwickler vorgegeben. Vorgefertigte Dialoge mit Pepper und NAO Mensch: „Wie geht es Dir?“ Pepper: ^rand[gut super „sehr gut“ Klasse] und Dir? (per Zufall wird ein Element ausgewählt, z. B. „super“) Mensch: [„auch gut“ bestens] (Mensch kann „auch gut“ oder „bestens“ sagen) Pepper: ^rand[„das freut mich“ „alles klar“] (per Zufall wird ein Element ausgewählt, z. B. „alles klar“) usw. 35 Einfache Humanoide Roboter Standardmäßig merkt sich Pepper nicht, worüber gesprochen wurde, d. h. er führt keine Dialogmodellierung durch. Diese sollte jedoch programmierbar sein, z. B. durch Verbindung mit zusätzlichen Chatbots, wie z. B. IBM Watson oder Microsoft Azure. Aufgrund der Erfordernis, alle Dialogoptionen vorzudefinieren, sind Gespräche mit Pepper zum aktuellen Zeitpunkt nicht sonderlich flexibel. Der menschliche Schreiber des Dialogs muss möglichst alle Benutzereingaben und sinnvolle Reaktionen bereits während des Entwicklungsprozesses vorhersehen und implementieren. Fehler im laufenden Dialog müssen durch selbstgeschriebene Mechanismen im Dialog behandelt werden. Pepper besitzt die Fähigkeit, durch Interaktionen mit Menschen vier Basisemotionen in deren Gesichtern zu erkennen: Freude, Trauer, Ärger und Überraschung. Hierzu erkennt und integriert er visuelle, akustische und linguistische Merkmale, die er über seine eingebauten Kameras und Richtmikrofone von seinem menschlichen Gesprächspartner wahrnimmt. Dazu gehören unter anderem Mimik, Tonfall, verwendete Schlüsselwörter und die Haltung des Kopfes seines Interaktionspartners. Pepper kann durch Kombination von verbalem und non-verbalem Verhalten positive und negative Emotionen wie Freude oder Langeweile darstellen. Als Mittel stehen ihm dafür die Anpassung verschiedener sprachlicher Parameter (Sprechgeschwindigkeit, Tonhöhe, Lautstärke, Pausen); paralinguistische Lautäußerungen; Gesten; Körperhaltung; Blickkontakt; sowie Variationen von Farbe und Leuchten („Blinken“ und „Rollen“) der LEDs seiner ‚Augen‘ zur Verfügung.12 Da Peppers Gesichtszüge starr sind, wie die einer Porzellanpuppe, spielt Mimik bei der Emotionsdarstellung keine Rolle. 12 Bei den neuen Android-Modellen wurde werksseitig auf die Farbgebung der Augen völlig verzichtet. Verstandene Inputs werden von Pepper lediglich mit einem Blinzeln registriert. 36 Roboter Menschliche Gesichtszüge In einigen Robotermodellen wird bereits mit beweglichen Gesichtszügen experimentiert. So hat sich die Firma Hanson Robotics auf humanoide Roboter mit menschenähnlichen Gesichtern und menschenähnlicher Mimik spezialisiert (siehe Sophia, Abb. I.11). Auch Roboter wie Philip K. Dick (Hanson Robotics) oder die Geminoiden von Hiroshi Ishiguro haben menschenähnliche Gesichtszüge und Funktionen. Zur Wahrnehmung seiner Umgebung ist Pepper mit einer Vielzahl von Sensoren ausgestattet. Dazu gehören zwei HD-Kameras (eine zwischen seinen ‚Augen‘ , eine in seinem ‚Mund‘ ), eine 3D-Kamera hinter den ‚Augen‘ und vier Richtmikrofone in seinem Kopf, mit denen er visuelle und akustische Informationen erfassen kann, unter anderem Sprache, menschliche Emotionsdarstellungen und Objekte in seiner Umgebung. Peppers Kopf und Hände sind mit taktilen Sensoren ausgestattet, die Berührung registrieren. Darüber hinaus verfügt Pepper in seinem Fuß über zwei Ultraschallsender und -empfänger (= Sonar), sechs Laser-Sensoren und drei Hindernisdetektoren. Damit kann er die Distanz zu Objekten in seiner Nähe bestimmen (Reichweite: 3 Meter). Weitere Sensoren messen innere Zustände des Roboters, wie z. B. die Temperatur seiner Komponenten oder den Batteriestand. Pepper ist bereits darauf programmiert, Sensordaten auf komplexe Art und Weise zu verarbeiten. Wenn Pepper gerade mit nichts anderem beschäftigt ist, dann führt er autonom und zufallsgesteuert verschiedene körperliche Aktionen aus. Zum Beispiel öffnen und schließen sich dann seine Hände, er bewegt leicht die Arme, er imitiert durch leichte Oberkörperbewegungen eine Art Atmung, und er dreht den Kopf in verschiedene Richtungen. Diese Aktionen dienen vornehmlich einem Zweck, nämlich, dem Benutzer deutlich zu machen: „Ich lebe. Wäre ich eine Maschine, dann würde 37 Einfache Humanoide Roboter ich leblos auf meinem Platz warten, bis mich wieder jemand benutzt.“ Eine weitere Funktion ist vermutlich, Pepper beweglich zu halten.13 Peppers gesamtes Wesen und Verhalten sind darauf ausgelegt und ausgerichtet, dass er von Menschen ‚gemocht‘ wird. So beschreibt ihn der Hersteller als „freundlich, liebenswert und überraschend“. Seine Architektur ist für die Verrichtung körperlicher Arbeiten, insbesondere schwerer Arbeiten mit Lasten, ungeeignet. Sie ist dagegen prädestiniert für die Mensch-Maschine-Kommunikation und den Aufbau von Mensch-Maschine-Beziehungen. In den Bereichen Kommunikation und Beziehungsaufbau kann Pepper punkten mit natürlichsprachlicher Dialogfähigkeit, der Fähigkeit zur Erkennung und Darstellung von Emotionen sowie non-verbaler Kommunikation über Gestik, Blickkontakt und Körperhaltung. Außerdem ist er in der Lage, Menschen zu erkennen und wiederzuerkennen. Mit Hilfe des eingebauten Tablets lässt sich Pepper auch für Lehr- und Präsentationsaufgaben einsetzen. Abb. I.22: Der H.E.A.R.T. App-Launcher 13 Übrigens nutzt auch NAO diese stark reduzierten Dauerbewegungen, um seine Aktionsbereitschaft zu zeigen. 38 Roboter Pepper eignet sich also besonders gut für Rollen, in denen körperliche Aktionen (ausgenommen die non-verbale Kommunikation) die Ausnahme und Kommunikation und Beziehungsaufbau die Regel sind. Abb. I.22 zeigt Pepper mit dem H.E.A.R.T. App-Launcher als Interface für den Start von Anwendungen in der digitalen Hochschullehre. I.4 Ausblick und Lektüreempfehlungen Die vorangegangenen Abschnitte haben das Thema humanoide Roboter von verschiedenen Perspektiven beleuchtet. Dabei wurde klar, dass die gegenwärtigen Fähigkeiten humanoider Roboter noch sehr überschaubar sind. Zwar gibt es bereits humanoide Roboter, die komplexe Interaktionen und Kommunikationsformen beherrschen, und sich damit als „soziale Roboter“ qualifizieren. Von den menschlichen Möglichkeiten des Informationsaustausches sind sie allerdings noch weit entfernt. Der niederländische Experte, Koen Hindriks, bringt es auf den Punkt: Ein Roboter kann beobachten, Daten abrufen und etwas damit machen. Wenn ein Mensch etwas zu einer solchen Maschine sagt, passiert etwas. Aber die menschliche Kommunikation ist viel komplexer. So ist es noch sehr schwierig für einen Roboter, mit Gesten, Emotionen und anderen non-verbalen Kommunikationsformen umzugehen. Ein Roboter versteht beileibe nicht alles. Auch kann er im Unterschied zu uns Menschen nicht gleichzeitig sehen und hören. Und wenn sich Menschen aus seinem Blickfeld entfernen, spricht der Roboter einfach weiter. Also müssen wir den Robotern beibringen, sich an menschliches Verhalten anzupassen. Das alles steckt noch in den Kinderschuhen. (übertragen aus dem Niederländischen, INT10) 39 Ausblick und Lektüreempfehlungen Auch der Robotiker Hendrik Schärfe aus Dänemark verschweigt keineswegs, dass sein Geminoid (siehe Abb. I.7) weit von tatsächlichen, fortgeschrittenen Fähigkeiten und Meilensteinen in der nützlichen Robotik entfernt ist. Die Fähigkeiten, die er mit seinem Geminoid- DK zur Schau stellt, kann genausogut jeder NAO-Roboter ausführen, da der Roboter ausschließlich das ausführt, was ihm vorher per Hand eingespeichert wurde. Vermutlich ist es aber auch gar nicht das Ziel des Projektes, Roboter an die menschliche Urteils- und Lernfähigkeit anzunähern. Geminoid-DK scheint eher ein Test zu sein, mit dem überprüft werden soll, wie täuschend ähnlich Roboter äußerlich und in gesteuerter Konversation ihrem menschlichen Pendant derzeit sein können. Trotz ihrer derzeitigen Unzulänglichkeiten beginnen humanoide Roboter die Bereiche der menschlichen Gesellschaft, in die sie eingeführt werden, zu verändern. In dem Maße, wie ihre Zahl und die Vielfalt der Szenarien, in denen sie eingesetzt werden, zunehmen, werden die durch Roboter entstehenden Veränderungen von Menschen immer stärker wahrgenommen. Die Wertigkeit und Intensität dieser Wahrnehmung wird die Haltung von Menschen gegenüber humanoiden Robotern maßgeblich beeinflussen. Schon heute sind humanoide Roboter in verschiedenen Bereichen des alltäglichen Lebens zu sehen. In vielen Fällen sind dies allerdings noch Testphasen bzw. Pilotstudien zu Forschungsprojekten, und es gibt nur wenige echte ‚Use Cases‘.14 Doch bereits jetzt lässt sich erkennen, welch großes Potenzial humanoide Roboter mit immer größer werdenden Fähigkeiten entfalten können. Dabei lassen sich folgende zentrale Einsatzarten unterscheiden: 14 Als „Use Cases“ werden in der Folge Anwendungen bezeichnet, die ein Roboter autonom und ohne menschlichen Eingriff im operationellen Dauerbetrieb ausführen kann. 40 Roboter • Der Showcase (die Zurschaustellung) • Die Partnerfunktion • Die Werkzeugfunktion Diese sich z. T. überlappenden Einsatzszenarien werden in den folgenden Kapiteln anhand der am weitesten verbreiten humanoiden Roboter, NAO und Pepper, aber, wenn nötig auch über andere humanoide Roboter-Modelle vorgestellt und anhand verschiedener Beispiele illustriert. Lektüreempfehlungen Ben-Ari, M., & Mondada, F. 2018. Robots and Their Applications. In Elements of Robotics (pp. 1–20). https://doi.org/10.1007/978-3- 319-62533-1_1. Craig, John J. 2014. Introduction to Robotics: Mechanics and Control. (3. Auflage). Essex: Prentice Hall International. Kajita, Shuuji/Hirukawa, Hirohisa/Harada, Kensuke/Yokoi, Kazuhito. 2016. Introduction to Humanoid Robotics. Berlin: Springer Verlag. Korn, Oliver. 2019. Soziale Roboter – Einführung und Potenziale für Pflege und Gesundheit. Wirtschaftsinformatik & Management, Vol. 11. Berlin: Springer Verlag: 126–135. Korn, O., Bieber, G., & Fron, C. 2018. Perspectives on social robots. From the historic background to an experts’ view on future developments. ACM International Conference Proceeding Series, (June), 186–193. 41 Ausblick und Lektüreempfehlungen Fragen zur Vertiefung Welche Unterschiede bestehen zwischen der aktuellen NAO-Version 6 und seiner Vorgängerversion 5? Was ist der Mehrwert bei der Nutzung eines ferngesteuerten Geminoiden? Was fehlt humanoiden Robotern im Vergleich zu Menschen? 42 Roboter 43 II Showcases Humanoid robots are here to stay and over time, with AI making progress, we might soon find them everywhere in our daily lives. Dang, Sanjit Singh, 2019. [INT2] Die offensichtlichste Variante der Roboternutzung ist derzeit die der Zurschaustellung (engl. showcase). Dabei wird ein humanoider Roboter öffentlich so präsentiert, dass er die Aufmerksamkeit des Publikums auf sich zieht und der Fokus der Betrachter allein oder zumindest teilweise auf ihn gelenkt wird. Diese Zurschaustellung hat auf Grund des immer noch bestehenden Effekts des „Neuen“ derzeit einen hohen Stellenwert, insbesondere in der Wahrnehmung durch die öffentlichen Medien. So zeigen sich Politiker und Entscheider, die im Bereich Digitalisierung ‚unterwegs‘ sind, gern mit humanoiden Robotern. Im Februar 2020 kündigte beispielsweise die EU-Kommissionspräsidentin, Ursula von-der-Leyen, eine großangelegte KI-Initiative der Europäischen Union an und ließ sich zu diesem Zweck zusammen mit einem NAO-Roboter ablichten bzw. für eine Fernsehreportage aufzeichnen (Abb. II.1). Abgesehen vom eher geringen Bezug zur Künstlichen Intelligenz im engeren Sinn ist das Ziel solcher Auftritte klar: Man nutzt die Anwesenheit von Robotern, um dem Publikum zu signalisieren „Wir sind ‚digital‘ auf der Höhe!“. Abb. II.1: Die EU-Kommissionspräsidentin mit NAO Leider ist diese Herangehensweise derzeit in vielen Bereichen die zentrale Motivation für den Einsatz humanoider Roboter. Im Handel, in der Touristikbranche, im Finanzwesen, ja sogar im klerikalen Kontext setzt man auf humanoide Roboter als ‚Spaßmacher‘ und ‚Hingucker‘. In den folgenden Abschnitten werden wir eine Reihe solcher Anwendungen für humanoide Roboter vorstellen. Zwar sind diese oft auch mit weitergehenden Funktionen verbunden und gehen bisweilen auch über den Showcase-Einsatz hinaus. Das Grundprinzip bleibt allerdings in den folgenden Fällen nahezu immer das gleiche: Die Nutzung des Roboters zur Erlangung von (medialer) Aufmerksamkeit. II.1 Vortragsbegleitung Eine typische Showcase-Anwendung, ist die Nutzung von Robotern im Zusammenhang mit öffentlichen Vorträgen. Je nach Größe der Veranstaltung wird dazu ein Pepper oder ein NAO-Roboter als Begleiter eingesetzt, der vorgefertigte Fragen kommentiert oder Bemerkungen, die über die diversen Sensoren aktiviert werden können, ins 44 Showcases Gespräch einstreut. Dabei sind alle Aktionen des Roboters vorgeplant und lassen sich während des Gespräches/Vortrages nicht ohne Eingriff von außen an den Gesprächsverlauf anpassen. Dem Publikum bleibt diese mangelnde Flexibilität des Roboters zumeist verborgen, und es entsteht der Eindruck, der Roboter sei dem Menschen in Punkto Dialogfähigkeit ebenbürtig. Abb. II.2 zeigt einen derartig ‚geskripteten‘ gemeinsamen Auftritt bei einem Vortrag des Autoren in Köln im Jahr 2017. Abb. II.2: Vortrag mit Pepper Das Skript selbst wird bereits im Vorfeld erstellt und auf den Roboter geladen, der dann allerdings autonom agiert. 45 Vortragsbegleitung Ein Dialogskript für NAO/Pepper Mensch: Aktiviert Roboter durch Druck des rechten Handrückens Roboter: Auch ich begrüße euch zum Vortrag, natürlich auch im Namen meiner Freunde MIKI und NAO. Hallo-Animation Darf ich schon mal ankündigen, was Du vorhast? Mensch: [ja, klar, gern, sehr gern, wenn du möchtest] Roboter: Enthusiasmus-Animation Mein Chef wird Ihnen gleich vorführen, wie ich in der Bildung eingesetzt werden kann. Mensch: So ist es, aber jetzt bin erstmal kurz ich an der Reihe. Roboter: Ok, Ich melde mich später nochmal. Bitte denk aber dran, Du hast insgesamt nur 30 Minuten. … [] stellt eine Liste von möglichen Aussagen dar. Die einzige – und oft genutzte – Eingriffsmöglichkeit ist die der Tele- Operation. Dabei befindet sich ein menschlicher Operateur, der z. B. per Laptop und WLAN mit dem Roboter verbunden ist, in einem Versteck und kontrolliert von dort sämtliche Aktionen des Roboters. Per Fernsteuerung greift er in die Mensch-Roboter-Dialoge insbesondere dann ein, wenn das Gespräch auf Grund von Verständnisproblemen auf Roboterseite droht, zum Erliegen zu kommen. Dieses Verfahren nennt man auch Wizard-of-Oz (dt. Der Zauberer von Oz) Technik. Eine weiterführende Art der Fernsteuerung nutzt – wie in Abb. II.3 dargestellt – ein spezielles Interface, mit dem die Aktionen des Roboters, hauptsächlich handelt es sich dabei um Körperbewegungen, mit den Bewegungen eines Menschen synchronisiert werden. Derartige, wie oben dargestellt ‚geskriptete‘ oder ferngesteuerte, öffentliche Auftritte werden z. T. noch an Dramatik gesteigert, indem der Roboter nicht nur kommentiert, sondern auch agiert. So kann 46 Showcases sich der Roboter tanzenderweise aus einer Deckung heraus, z. B. hinter einem Vorhang, auf eine Bühne bewegen, dabei unter Musikbegleitung eine Begrüßungsformel sprechen und so die Aufmerksamkeit des Publikums weiter steigern. Pepper-Roboter als Hingucker In einem typischen Begrüßungsablauf führt z. B. ein Pepper-Roboter autonom folgende Aktionen aus: • „Basic Awareness“ ausschalten • Kollisionserkennung deaktivieren • Audio Feedback deaktivieren • Externen Sound (Musik) abspielen • 4 m Vorwärtsbewegung (mit Tanz) • 90 Grad Drehung ausführen • 1 m Vorwärtsbewegung (ohne Tanz) • „Basic Awareness“ aktivieren • Begrüßung des Publikums Abb. II.3: Tele-Operation mit Pepper 47 Vortragsbegleitung Voraussetzung für die erfolgreiche Abarbeitung eines solchen Skripts sind u. a. die Bekanntheit der Räumlichkeiten für die Bewegungsaktionen und ein ausgiebiges Testen vor Beginn der Veranstaltung. Bei Tagungseröffnungen und großen Symposien sind diese Einsatzszenarien vom Autorenteam bereits mehrfach erfolgreich erprobt worden, wobei gerade das Tanzen mehr und mehr eingeschränkt wird, um die eigentlichen Fähigkeiten des Roboters durch den eher inhaltsleeren Tanz nicht zu überdecken. Abb. II.4 zeigt einen Teil der Eröffnungssequenz bei der Jahrestagung des Zentralverbandes der deutschen Elektroindustrie 2017 vor mehr als 1.000 Zuschauern. Abb. II.4: Moderator Jo Schück, Jürgen Handke und Pepper bei der Jahreskonferenz des ZVEI in Berlin 2017. Pepper im Krankenhaus Mit einer speziellen Telepräsenz-Anwendung für Pepper-Roboter, die es Angehörigen ermöglicht, die Verbindung zu Patienten in Krankenhäusern trotz eingeschränkter Besuchsmöglichkeiten aufrechtzuerhalten, hat SoftBank Robotics einen signifikanten Beitrag 48 Showcases im Kampf gegen die Coronavirus-Pandemie geleistet. Mit Hilfe seiner Mikrofone und des Tablets ermöglicht es Pepper den Angehörigen, auch in diesem schwierigen Umfeld virtuell anwesend zu sein und in Kontakt bleiben zu können. (Quelle: Softbank Robotics Europe, LinkedIn) II.2 Touristik und Unterhaltung Das größte Kreuzfahrtunternehmen der Welt „Carnival Corporation & plc“ entschied sich Anfang 2016 für eine Partnerschaft mit Soft- Bank Robotics, um auf zwei seiner Schiffe den humanoiden Roboter Pepper einzusetzen. Angefangen mit zwei Testläufen auf der „Aida Prima“ und der „Costa Diadema“ sollte im Sommer 2016 die gesamte AIDA Flotte damit ausgestattet werden. Ziel des Roboter-Einsatzes war es, die Kreuzfahrtpassagiere zu unterhalten und ihr Erlebnis an Bord noch einzigartiger und unvergesslicher zu machen. Die Interaktion mit dem Roboter war durch Peppers Tablet sowie durch Sprachsteuerung in drei Sprachen möglich: Französisch, Englisch und Italienisch. Deutsch sollte ebenso folgen. An Bord selbst konnten die Gäste der „Costa Diadema“ die Roboter dann in fünf Bereichen des Schiffes treffen. Geworben wurde damit, dass Pepper neben der Beantwortung von Fragen, die direkt an ihn gerichtet werden, auch die Aufmerksamkeit auf sich ziehen und in eine Interaktion mit Menschen in seiner Nähe treten kann. In der Praxis erwies sich dies jedoch komplizierter und Menschen mussten zuerst eine Frage stellen, um eine Interaktion zu starten. Viele der Funktionen waren mit Unterhaltung verbunden, waren also typische Showcases: Pepper tanzt mit den Gästen, verwickelt sie in Spiele oder schlägt ihnen vor, Souvenirs selbst zu machen. Geplant war aber auch, dass Pepper die Passagiere dabei nicht nur zum Lächeln bringen, sondern auch nützliche Aufgaben erfüllen sollte, 49 Touristik und Unterhaltung wie z. B. die Bereitstellung von Informationen über das Schiff, die Reiseziele, und die Dienstleistungen an Bord (Restaurants, Bars, Ausflüge, Aktivitätsprogramm, Spa und Geschäfte). Auch das Einholen von Rückmeldungen über das Kreuzfahrterlebnis war Teil des Plans. Inwiefern Pepper wirklich einen Mehrwert schaffen konnte, bleibt offen, da Videos im Internet hauptsächlich auf den Unterhaltungsfaktor des Roboters abzielen und Berichte sowie Artikel nur über die Pilotstudie berichten. Außerdem sind keine Informationen darüber zu finden, ob Pepper über diese Testphase hinaus beschäftigt und seine Einsatzmöglichkeiten verbessert wurden. Umfragen zeigten auch, dass die Gäste bezüglich der Nutzung eines humanoiden Roboters auf Kreuzfahrtschiffen eher skeptisch waren. Dies zusammen mit der Aussage der auf dem Schiff für den Roboter verantwortlichen Person, dass ein Lieblingshobby von Pepper das Tanzen ist, unterstreicht den nahezu reinen Showcase-Einsatz auf solchen Kreuzfahrten. Abb. II.5: Pepper als Hingucker Pepper auf See Pepper fragt: „Was kann ich für Dich tun?“ „Tanzen ist eines seiner liebsten Hobbys“, sagt der Betreuer des Roboters, der sich an Bord um ihn kümmert. Zunächst schwingt Pepper nur leicht die Hüften, 50 Showcases später gehen die Hände nach oben und schließlich übt er sich auch noch im Luftgitarre spielen. (Quelle: INT9) Abb II.5: zeigt die typische Hingucker (Showcase)-Anwendung bei einer Kreuzfahrt: Die Selfie-Pose zum Fotografieren. II.3 Werbung in eigener Sache Ein anderer Ansatz der Roboternutzung wird beim „Recruitment“ verfolgt. Der weltweit agierende Chemie- und Pharma-Konzern BAYER wirbt seit Ende 2017 mit künstlicher Intelligenz und humanoiden Robotern in einem solchen Recruiting-Prozess. An Messeständen sollen Roboter neben einem Blickfang auch eine Entlastung für die menschlichen Partner darstellen, indem zeitfressende Routinen an sie abgegeben werden und somit Freiräume für Menschen geschaffen werden. Pepper ist mit der Microsoft Cloud Azure verbunden und soll potenzielle Job-Interessenten anziehen sowie Standardfragen über BAYER als Arbeitgeber beantworten. Zu diesen Fragen gehören unter anderem: Wer oder was ist BAYER, wie funktioniert das Traineeprogramm, wo kann ich mich bewerben oder wie läuft der Auswahlprozess ab? Der Einsatz der Roboter soll mehr Zeiträume für individuelle Beratungsgespräche mit dem menschlichen Standpersonal schaffen, was angesichts von 70 Karrieremessen und rund 24.000 individuellen Gesprächen mit durchschnittlich fast vier Minuten Länge bei zwölf Fragen entsprechendes Entlastungspotenzial birgt. Auch überbrückt es die Wartezeit bis ein menschlicher Mitarbeiter verfügbar ist, und möglicherweise sinkt die innerliche Hemmschwelle von Interessenten an einen Messestand heranzutreten und in Kontakt mit der Firma zu kommen. Da BAYER die ‚Intelligenz‘ und das ‚Wissen‘ von Pepper in der 51 Werbung in eigener Sache Microsoft Cloud Azure speichert, kann es nicht nur dem humanoiden Roboter, sondern jedem Touch Point mit (möglichen) Bewerben bereitgestellt werden. Ist man nicht an einem Messestand von BAYER, kann man sich beispielsweise über die BAYER Karriere-Webseite mit einem Chatbot unterhalten, der dasselbe Wissen besitzt wie Pepper. So weit zur Theorie! Über den tatsächlichen Mehrwert eines humanoiden Roboters im Recruiting-Prozess oder auch in diesem konkreten Fall bei BAYER ist wenig bekannt, da außer den anfänglich euphorischen, höchst medienwirksamen Reportagen zur Einführung keine weiteren Ergebnisberichte publiziert wurden. Abb. II.6: NAO und Pepper-Roboter bei BAYER Aus Sicht des Autoren-Teams, das bei der Cebit-Messe 2018 den Messestand BAYERs inklusive Roboter begutachtete, zielte die Inszenierung eher auf die Zurschaustellung ab als auf eine echte Partnerfunktion. Bei dieser Messe wurde der Roboter durch einen Menschen 52 Showcases betreut und auch ferngesteuert. Möglicherweise kann sich der Einsatz dieser Roboter für das Recruiting durch Weiterentwicklungen in den letzten Jahren verbessert haben. Allerdings ist Entsprechendes bisher nicht publiziert worden, sodass wohl auch hier das Motto im Vordergrund steht: „Werbung in eigener Sache – Wir sind digital auf der Höhe!“ Abb. II.6 zeigt die beiden NAO und Pepper-Roboter, mit denen der BAYER-Konzern für sich wirbt. II.4 Der Bereich Pflege Seit einigen Jahren erhofft man sich auch in der Pflegebranche eine erhöhte Aufmerksamkeit und damit eine verbesserte Möglichkeit, junge Mitarbeiter zu gewinnen. Pepper, so die Hoffnung, könnte daher ein Ansatz sein, den immer größer werdenden Mangel an Pflegekräften zu beheben. Wie auch in dem in Abschnitt II.3 gezeigten Beispiel dient Pepper somit als Botschafter, um zu zeigen, dass auch in der Pflege moderne Zeiten einziehen. Echte Anwendungen, die über eine reine Zurschaustellung hinausgehen, sind allerdings auch hier eher Mangelware. Über den „Recruitment“-Aspekt hinaus werden allerdings gerade Pepper-Roboter in der Pflege selbst eingesetzt, um für Abwechslung bei der Alltagsgestaltung der betagten und z. T. leider auch dementen Bewohner von Seniorenresidenzen und Pflegeheimen zu sorgen. Doch auch hier beschränkt sich der Einsatz humanoider Roboter zumeist auf Showcases (Tanzen, Singen etc.), wobei allerdings konstatiert werden muss, dass in diesem ganz speziellen Bereich gerade beim Umgang mit ‚eingeschränkten‘ Menschen (Demenz, Immobilität etc.) die Showcase-Anwendung durchaus für Mehrwerte sorgen kann. Der Neuheitseffekt, der bei der Einführung von Robotern in der Regel eine Rolle spielt, steht möglicherweise nicht mehr im Vor- 53 Der Bereich Pflege dergrund, da der Roboter schlicht als Spielpartner oder Entertainer betrachtet wird (siehe auch Abschnitt III.6). Abb. II.7: Pepper in der Pflege – tanzend Eine typische Anwendung mit Pepper in der Pflege „So, hier“, sagt die 87-Jährige. Dann erschallen die ersten Klänge von Freddy Quinns bekanntem Schlager „Junge, komm bald wieder“. Die Augen der älteren Dame fangen an zu leuchten und sie beginnt zu tanzen. Alle zwei Wochen unterhält Pepper-Roboter „Emma“ die Demenz-Wohngruppe der Diakonie Altholstein in Kiel. (aus „Roboter Emma rockt die Kieler Demenz-WG“, Westfälische Nachrichten, 17.5.2017) 54 Showcases II.5 Im Einzelhandel Auch im Einzelhandel gibt es zahlreiche Beispiele für die Nutzung humanoider Roboter. Ohne wirkliche Anwendungen werden humanoide Roboter – abermals auf den Neuheitseffekt bauend – zu Werbezwecken eingesetzt. Wiederum handelt es sich auch hier in den meisten Fällen um Pepper-Roboter. Unter dem Titel „Roboter Pepper tanzt für euch!“ wirbt z. B. die Möbelfirma „Sommerlad“ aus Gießen nicht etwa für den Roboter- Einsatz, sondern für sich selbst als Möbelkette. In der Videobeschreibung auf YouTube heißt es dazu: „Pepper hat ein paar Tänze für euch auf Lager. Schaut sie euch an in der Möbelstadt Sommerlad im Schiffenberger Tal in Gießen!“. Abb. II.8: Pepper im Einzelhandel – tanzend und verkleidet 55 Im Einzelhandel Auf ähnliche Weise wird auch bei der Firma EDEKA geworben. Mit einem Pepper-Roboter in unterschiedlichen Verkleidungen und dem Hinweis in entsprechenden YouTube-Videos „Es robotert in den Kulinarikwelten!“ wird der im Video tanzende Roboter als Showcase für die Warenhauskette verwendet, wiederum mit dem Ziel, öffentliche Aufmerksamkeit zu erzielen und dabei die eigene, weltoffene Haltung zu untermauern. Abb. II.8 zeigt typische Verkleidungen von Pepper im Rahmen des Showcase-Einsatzes bei EDEKA. Not macht erfinderisch! Diese Aussage trifft geradezu perfekt auf eine, neuen, durchaus über den reinen Showcase hinausgehenden Einsatz von Pepper-Robotern zu. Man nutzt ihre unermüdliche Geduld beim Durchsagen von Nachrichten an die Kunden, um an deren gewünschte Verhaltensmuster zu erinnern, ein Einsatz-Szenario, das gerade vor der Corona-Krise im Frühjahr 2020 als sehr sinnvoll erachtet wurde. Pepper in anderer Funktion Update vom 28. März 2020, 19.40 Uhr: Im schwer vom dem Coronavirus betroffenen Bundesland Nordrhein-Westfalen hilft nun ein Roboter in einem Edeka-Markt in Lindlar den Kunden den Abstand an der Kasse einzuhalten und sich vor einer Infektion mit Sars-CoV–2 zu schützen. „Pepper“, so der Name des Roboters, ist eigentlich ein Pflegeroboter. Seit Mittwoch steht er im Kassenbereich der Filiale und wirbt unter anderem für Rücksichtnahme, Solidarität untereinander und rät von Hamsterkäufen ab. (Quelle: TZ, https://www.tz.de/welt/) II.6 Auf öffentlichen Plätzen Auch in den öffentlichen Bereichen von Flughäfen, werden seit einiger Zeit Roboter erprobt. Auf dem Münchener Flughafen sollte 2018 in ei- 56 Showcases ner mehrwöchigen Testphase ein Pepper-Roboter Reisende im nicht- öffentlichen Bereich des Terminals 2 begrüßen und u. a. auch Fragen zu Geschäften, Restaurants und zum Flugbetrieb beantworten. Die Hoffnung war, wie in den sozialen Netzwerken kolportiert: „Pepper schaut dem Fluggast in die Augen und liefert prompt die Antwort.“ Abb. II.9 zeigt ein typisches Szenario des Flughafeneinsatzes, aus dem allerdings nicht hervorgeht, ob die Funktionalität über die des einfachen Showcase hinausgeht. Bis heute hat sich der Wunsch, Roboter über die reine Showcase- Funktion hinaus auf Flughäfen und anderen öffentlichen Plätzen einzusetzen, nicht erfüllt. Mehr als die Aufmerksamkeit auf sich zu ziehen, haben Roboter in derartigen öffentlichen Einsätzen bisher nicht umzusetzen vermocht. Abb. II.9: Pepper – Mehr als nur ein Showcase? Und so sind sie nach der anfänglichen Euphorie, die gerade in den öffentlichen Medien durch überbordende Begeisterung geschürt wurde, zumeist wieder aus dem Fokus der öffentlichen Wahrnehmung verschwunden. 57 Auf öffentlichen Plätzen II.7 Klerikale Showcases Anlässlich des Jubiläums der Reformation hat der Ingenieur Alexander Wiedekind-Klein 2017 einen ‚Segensroboter‘ in Zusammenarbeit mit Fabian Vogt entwickelt. „BlessU-2“ soll Menschen segnen und somit den Pfarrern den Arbeitsalltag erleichtern. Ursprünglich wurde der humanoide Roboter als Kunstprojekt für die Weltausstellung geschaffen, um eine Diskussion über die ethischen Grundlagen einer robotischen Beschäftigung im Kreis der Religion anzuregen. Der Roboter, der seit 2017 in verschiedenen deutschen Städten ‚gesegnet‘ hat, lässt sich von zu Segnenden wie ein Bankautomat bedienen. Zuerst kann die Sprache ausgewählt werden, danach wird die Art des Segens ausgesucht, z. B. eine Ermutigung, ein Segen zur Begleitung oder auch ein mahnender Segen, sowie, ob der Segen mit einer männlichen oder einer weiblichen Stimme vorgetragen werden soll. Nach Auswahl des Segens hebt BlessU-2 seine Arme. Anschlie- ßend leuchten LEDs auf den Handflächen auf und symbolisieren so das auf die Person fallende Licht Gottes. Abb. II.10 zeigt diesen Zustand des Roboters während einer Segnung. Abb. II.10: BlessU-2 während einer Segnung Während der bereits vorprogrammierte Segen gesprochen wird, bewegt der Roboter sowohl seine Augen als auch die Augenbrauen. Nach Beendigung des Segens senkt er seine Arme und bietet an, den gesprochenen Segen im Format einer Quittung auszudrucken. 58 Showcases In der evangelischen Gemeinde stößt BlessU-2 auf zumeist kritische Reaktionen. Viele Kirchgänger bemängeln die fehlende Menschlichkeit und weisen darauf hin, dass der Roboter kein Herz habe und das Christentum nicht verstehen könne. Dem entgegnen Befürworter, er würde über mehr biblische Zitate verfügen als die meisten Pfarrerinnen und Pfarrer. II.8 Sinn und Nutzen von Roboter-Showcases Ob im Rahmen von Vorträgen, auf öffentlichen Plätzen, in der Kirche oder im Einzelhandel – die diversen Roboter-Projekte sind Vieles schuldig geblieben. Mehr als Showcases, im Rahmen derer die Roboter tanzen oder Späße machen, sind bis heute kaum zu verzeichnen. Die in den Jahren 2015 bis 2018 angekündigten Untersuchungen und Projekte zu den genannten Einsatzszenarien lassen nahezu jeden Impakt vermissen, sie sind schlicht nicht mehr auffindbar. Und auch die vielen Showcases haben längst an Attraktivität verloren. Der Grund liegt auf der Hand: Durch die vielen Medienberichte (allein über die Roboter-Projekte des Autoren wurde seit 2018 weit mehr als 100 Mal berichtet) hat das Thema Robotik seinen Neuigkeitswert eingebüßt. Wollte z. B. 2017 noch jeder Student in den Kursen von Prof. Handke zusammen mit einem seiner Roboter auf einem Foto erscheinen, ist dieser Wunsch heute nicht mehr feststellbar. Die Roboter sind – zumindest in der digitalen Lehre, so wie sie seit vielen Jahren an der Philipps-Universität durchgeführt wurde, Normalität geworden. Mit einem Robotertänzchen lässt sich keine studentische Begeisterung mehr erzeugen. Macht die Zurschaustellung daher überhaupt noch Sinn? Sollte man – etwas ketzerisch ausgedrückt – nicht auf die hohen Anschaffungskosten für einen oder mehrere humanoide Roboter verzichten und statt dessen einen preisgünstigen Pappkameraden oder einen verklei- 59 Sinn und Nutzen von Roboter-Showcases deten Menschen mit einem überschaubaren Stundenlohn für die gleiche Tätig einsetzen? Ist es wirklich den Preis eines Roboters wert, um die eigene digitale Kompetenz nachzuweisen? In den meisten Fällen muss diese Frage verneint werden. Nach nur wenigen medienwirksamen Effekten, lässt das öffentliche Interesse wohl zu schnell nach, um einen sinnvollen Kosten-Nutzen-Effekt zu erzielen. In manchen Fällen hat die Showcase-Nutzung humanoider Roboter allerdings spezielle Gründe. So war der ursprüngliche Grund für den Einsatz des Roboters BlessU-2 der Wunsch der evangelischen Kirche nach einer ethischen Diskussion über den Einsatz von Robotern im Alltag. Kann eine Maschine für die Segnung eingesetzt werden oder nicht? Die Beantwortung dieser Frage ist vielschichtig. So legen manche Gläubige Wert darauf, den Segen von einer dazu autorisierten Person erteilt zu bekommen, anderen reicht möglicherweise das reine Hören einer Segnung. Generell konnte aber gezeigt werden, dass die meisten Menschen dem Konzept einer maschinellen Segnung eher kritisch gegenüberstehen. Dennoch wird immer wieder Werbung mit den angeblich großen Fähigkeiten humanoider Roboter gemacht. II.9 Ausblick und Lektüreempfehlungen Ziel der folgenden Kapitel ist es, über die reine Zurschaustellung hinausgehende Anwendungen für humanoide Roboter vorzustellen und bezüglich ihrer Mehrwerte einzuschätzen. Dabei stehen zwei Roboter im Vordergrund: NAO und Pepper von der Firma SoftBank Robotics. Wie bereits in den Abschnitten I.2.1 und I.3.1.1 ausgeführt, ist NAO auf Grund seiner Größe geradezu prädestiniert, um einerseits in Laborsettings als Untersuchungsobjekt für die Mensch-Roboter- Interaktion herzuhalten, andererseits die Rolle eines Werkzeuges zum Kennenlernen der Roboterentwicklung einzunehmen. 60 Showcases Pepper dagegen eignet sich bestens als Partner: Er ist mit seinen 120 cm Größe mit sitzenden Menschen auf Augenhöhe. Zu stehenden menschlichen Gesprächspartnern dagegen muss er in der Regel aufschauen. Dadurch entsteht eine Mensch-Roboter-Beziehung, in der der Mensch in jedem Fall die Oberhand behält. Pepper ist daher seit einigen Jahren der erste markttaugliche humanoide Roboter, der als Gefährte oder Partner in verschiedenen Bereichen eingesetzt werden kann. Das folgende Kapitel stellt einige dieser Bereiche vor. Lektüreempfehlungen Der Spiegel. 2015. Und er heißt Pepper. https://bit.ly/3bqhdvJ Diercks, Jo. 2017. BAYER setzt (humanoide) Recruiting-Roboter ein! Weltpremiere auf dem Absolventenkongress. Was geht da ab? https:// bit.ly/2WLZefd Zehender, Michael. 2017. Wenn sich Roboter um die Passagiere kümmern. https://bit.ly/2UmvSCm Fragen zur Vertiefung: Was sind die Vor- und Nachtteile der Nutzung von humanoiden Robotern als Showcases? Welche Einsatzszenarien für humanoide Roboter sind in Zeiten, in denen strikte „Social Distancing“ Regeln gelten, denkbar? Was verbindet die derzeitigen humanoiden Roboter mit dem Thema „Künstliche Intelligenz“? 61 Ausblick und Lektüreempfehlungen 63 III Humanoide Roboter als Partner Robots increasingly have the potential to interact with people in daily life. It is believed that, based on this ability, they will play an essential role in human society in the not-so-distant future. Kanda et al., 2004 Damit ein Roboter als möglichst gleichwertiger Partner eines Menschen agieren kann, benötigt er zuvorderst anthropomorphe Eigenschaften. Mit anderen Worten: er sollte den Menschen weitestgehend verkörpern. Diese Verkörperung als Konzept ist vielschichtig: Hier meinen wir einfach die physische Präsenz des Roboters. Diese gibt dem Menschen das Gefühl der Ko-Präsenz und Ko-Lokation mit dem Roboter in einem physischen Raum, anders als die Interaktion mit einem virtuellen Agenten, der Interaktionsmöglichkeiten lediglich durch digital vermittelte Umgebungen wie Augmented Reality und Virtual Reality bietet. Genauso wichtig ist neben einer gewissen Ähnlichkeit im Aussehen das Verhalten, das uns einen Roboter als „sozialen Roboter“ wahrnehmen lässt. Die Fähigkeit eines Roboteragenten, auf sozialer Ebene mit einem menschlichen Benutzer zu interagieren, basiert auf einem Informationsaustausch, der durch die verbalen und/oder non-verbalen sozialen Hinweise gezeigt wird. Das bedeutet in der Mensch- Roboter-Interaktion das Vorhandensein von sozialen Hinweisen in einem Roboter, wie anthropomorphe Körperteile, Gesichtshinweise, non-verbale Konversationsfähigkeiten wie Gefühlsausdrucke, Gesten oder Blicke. Diese tragen nachweislich positiv zur Wahrnehmung des Roboters als Interaktionspartner, zur Interaktionsqualität und den damit verbundenen Ergebnissen der gemeinsamen Interaktion zwischen Mensch und Roboter bei. Die Größe humanoider Roboter Im BMBF-geförderten Projekt H.E.A.R.T. wurde unter anderem untersucht, wie sich Körpergröße und Aussehen auf die Akzeptanz humanoider Roboter unter Studenten auswirkt. Das Ergebnis dieser Untersuchung war eindeutig. Erst ab einer gewissen Größe (> 1 m) eignen sich Roboter für partnerschaftliche Anwendungen. Überschreiten sie dagegen die menschliche Durchschnittsgröße von ca. 1,80 m, wirken sie eher furchteinflößend und sind als Partner eher ungeeignet. Nutzt man also Roboter als Partner, sollte vermieden werden, dass diese dem Menschen ‚überlegen‘ erscheinen, die Roboter gleichzeitig aber durch ihre Größe und ihr Erscheinungsbild Vertrauen erwecken. Die Pepper-Roboter erfüllen diese Anforderungen auf geradezu ideale Weise. Sie schauen zu stehenden Menschen auf, verströmen durch das von ihnen verkörperte Kindchenschema ein enormes Vertrauen, ja geradezu Lust, mit ihnen Kontakt aufzunehmen und sind für sitzende menschliche Gesprächspartner stets auf Augenhöhe. Sie eignen sich daher perfekt als Partner in verschiedenen Anwendungsbereichen. Wie im vorangegangenen Kapitel gezeigt, werden humanoide Roboter bereits heute in verschiedenen Bereichen der Geschäfts- und Arbeitswelt vorwiegend zur Schau gestellt. Es wird aber auch versucht, sie mit speziellen Anwendungen in eine Partnerrolle hineinzubekommen. Abhängig von der jeweiligen Branche sind derartige Anwendungen schon mehr oder weniger ausgeklügelt und an den jeweiligen Geschäftsbereich angepasst. Neben dem Einsatz humanoider Roboter in der Bildung, im Einzelhandel oder in der Pflege, spielt auch der 64 Humanoide Roboter als Partner im Finanzsektor eine allmählich größer werdende Rolle. Diese Einsatzarten sollen in den folgenden Abschnitten näher beleuchtet werden. Dabei werden wir sehen, dass die meisten Anwendungen nicht nur auf einem Kontinuum von nicht-interaktiven Showcase-Anwendungen bis zu hochgradig interaktiven Partneranwendungen angesiedelt werden können, sondern ihr Mehrwert auch im hohen Maße vom Zielpublikum abhängt. III.1 Roboter als Partner in der Öffentlichkeit In Japan und in anderen Ländern sind Pepper und seine ‚Roboterkollegen‘ bereits oft in Geschäften, auf Flughäfen und an ähnlichen Orten in der Öffentlichkeit sehen. Auch wenn, wie im vorangegangenen Kapitel gezeigt, dabei die Zurschaustellung (Showcase) zumeist noch im Vordergrund steht, sind sie z. T. schon in der Lage, Kunden zu begrüßen, Fragen zu beantworten, oder Beschwerden entgegen zu nehmen. Auch die Beratungsfunktion über bestimmte Produkte oder Dienstleistungen können sie schon ansatzweise übernehmen. Das Pepper Parlor Café Seit Dezember 2019 gibt es in Tokio (Japan) ein „Pepper Parlor Café“, in dem Roboter unter anderem Bestellungen entgegennehmen oder Smalltalk mit Kunden führen. Die Kunden bestellen über Pepper- Roboter, die in der Nähe des Eingangs platziert sind und den Kunden auch dabei helfen, anhand ihres ermittelten Gesichtsausdrucks zu entscheiden, welches Dessert sie bestellen möchten. „Lassen Sie mich Ihnen eine Waffel empfehlen, die perfekt zu Ihnen passt“, sagte ein Roboter zu einem Kunden. „Lassen Sie mich Ihr Gesicht sehen. Hmm, du siehst heute etwas müde aus.“ [V.III.1] 65 Roboter als Partner in der Öffentlichkeit Die Roboter befinden sich zusätzlich im Sitzbereich und unterhalten sich dort mit den Kunden oder spielen mit ihnen. Schon bald, so die Annahme, werden Roboter den Kunden, wie z. B. im „Pepper Parlor Café“ in Tokio, auch perfekte Ernährungstipps geben können (Abb. III.1). In den meisten Fällen allerdings leiden die gewünschten Roboter-Anwendungen noch unter den Einschränkungen bzgl. ihrer Dialogfähigkeit, ihrer Bewegung und ihrer doch immer noch sehr überschaubaren Wahrnehmungsfähigkeiten (vgl. Abschnitt. I.2.2.7). Abb. III.1: Pepper Parlor Café in Tokyo mit Kunden In einem ähnlich beratenden Einsatz wird Pepper als autonomer Bibliotheksassistent an der Fachhochschule Wildau in Brandenburg erprobt. Dabei soll er Nutzern bei allgemeinen Fragen helfen und bei deren Beantwortung seinen Charme einsetzen, sodass auch banale Fragen wie „Wo finde ich das Buch X?“, „Wie funktioniert der Dru- 66 Humanoide Roboter als Partner cker Y?“, „Wo finde ich die Garderobe?“ mit immer gleicher Geduld beantwortet und die Mitarbeiter der Hochschulbibliothek entlastet werden. Über den Erfolg dieses Einsatzes im echten Dauerbetrieb ist allerdings außer medienwirksamen Photos bisher nichts Näheres bekannt geworden. III.2 Roboter als Partner in der Finanzwelt Banken erproben vermehrt den Einsatz humanoider Roboter, indem bankspezifische und andere nützliche Anwendungen die simple Zurschaustellung ergänzen. Die entsprechenden Finanzdienstleister sind vor allem im asiatischen und nordamerikanischen Raum beheimatet, jedoch ziehen mittlerweile auch europäische Finanzdienstleister nach. Neben den in diesem Buch erwähnten Robotermodellen NAO und Pepper von SoftBank Robotics werden dabei auch andere, weniger bekannte humanoide Roboter in Banken rund um die Welt eingesetzt. Die folgenden Abschnitte beschreiben diese Finanzdienstleister und den bisherigen Einsatz solcher maschinellen Helfer. III.2.1 Die Mizuho Bank (Japan) Mit dem Einsatz von Pepper-Robotern in den Filialen der japanischen Mizuho Bank seit 2015 wurden drei Ziele verfolgt. Zum einen sollte der Aufmerksamkeitseffekt durch Zurschaustellung des Roboters genutzt werden, um mehr Kunden in die Filialen zu locken, zum zweiten wollte man mit roboter-gestützten Unterhaltungsangeboten die Wartezeiten der Kunden verkürzen. Darüber hinaus sollten durch die Implementierung von bankspezifischen Dialogen und Informationen die Kunden vor einem Kundengespräch über Finanzprodukte und Dienstleistungen informiert werden, um dann offener und geschulter über diese Produkte mit den Beratern reden zu können. Da- 67 Roboter als Partner in der Finanzwelt bei können zwei Interaktionsmodi zwischen Roboter und Mensch unterschieden werden: One-to-Many (eins-zu-viele) und One-to-One (eins-zu-eins). In einem Einzelgespräch fungiert er wie ein Berater. Basierend auf gezielten Fragen, empfiehlt der Roboter zum Beispiel ein Produkt. Im Gruppenmodus agiert der Roboter eher wie ein Moderator und vermittelt allgemeine Informationen. Das ausgegebene Hauptziel der Mizuho Bank war die Schaffung eines innovativen digitalen Kundenerlebnisses. Darüber hinaus sollte durch Nutzung der fremdsprachlichen Fähigkeiten des Roboters die Interaktion mit Kunden in verschiedenen Sprachen ermöglicht werden. Um die Dialogfähigkeit von Pepper zu erhöhen, arbeitet das Finanzinstitut seit 2016 mit IBM und deren Software Watson zusammen. Damit soll eine natürlichere Roboter-Mensch-Interaktion geschaffen werden. Watson ermöglicht dem Roboter das Verständnis von bildhafter Sprache und baut die sprachlichen Fähigkeiten aus. Als Zwischenresultat vermerkt die Mizuho Bank höhere Kundenbesuchszahlen in den Filialen mit Pepper-Robotern sowie verkürzte Wartezeiten. In der Zukunft sollen den Mitarbeitern so repetitive Aufgaben abgenommen werden und dadurch mehr Zeit für kompliziertere Aufgaben oder für eine verbesserte Kundenbetreuung geschaffen werden. III.2.2 Die ATB Financial (Kanada) Während die japanische Mizuho Bank vom Einsatz humanoider Roboter überzeugt scheint, ist der kanadische Finanzdienstleister Alberta Treasury Branches (ATB) Financial eher zurückhaltend. Der Einsatz des Roboters Peppers in drei Filialen in Calgary ist hier im wesentlichen Teil einer Machbarkeitsstudie zur Mensch-Roboter-Interaktion im Finanzwesen. Außerdem sieht die Bank es als Chance, sich auf die zunehmende Digitalisierung – in allen Lebensbereichen – vorzubereiten und womöglich ein Vorreiter beim Einsatz humanoider Roboter zu sein. Die Aufgaben, für die Pepper eingesetzt wird, umfassen 68 Humanoide Roboter als Partner einfache Beratungsdienste über ATB Produkte, ein einfaches Finanzquiz, eine Selfie-App sowie die bereits mehrfach erwähnte Zurschaustellung durch das Tanzen. III.2.3 Die City Union Bank (Indien) Ende 2016 präsentierte die City Union Bank (CUB) den ersten humanoiden Roboter in einer indischen Bank. Im Gegensatz zur Mizuho Bank in Japan wird hier der kleinere Bruder des Pepper-Modells, NAO unter dem Namen „Lakshmi“ eingesetzt. Er wurde so programmiert, dass er in der Lage ist, mit Kunden über viele Themen in englischer Sprache zu interagieren. Dazu gehören Informationen über Kredite oder über den Umgang mit aufgeschobenen Zahlungen. Falls Lakshmi eine Frage nicht beantworten kann, ruft er einen menschlichen Kollegen zur Hilfe. Die so gesammelten fehlenden Informationen werden später evaluiert und auf dem Roboter in Ergänzung zu seinen bestehenden Dialog-Komponenten implementiert. So wird eine permanente Verbesserung der Dialogfähigkeit des Roboters erreicht. Abb. III.2: Kunde in Kontakt mit Lakshmi in einer CUB-Filiale 69 Roboter als Partner in der Finanzwelt Da die Pilotphase erfolgreich verlief und laut dem Vorstandvorsitzenden N. Kamakodi der Roboter die Mitarbeiter entlastete, verkündete die CUB im August 2017 die Einsatzbereiche auszudehnen. Zu den Plänen zählen die Geldannahme bei Einzahlungen, wofür ein spezieller Geldautomat für den Roboter konstruiert wurde, und die Spracherweiterung um die regionalen Sprachen Tamil und Telugu. Auch ist die Ausstattung des Roboters mit einem Kartenlesegerät angedacht. Somit könnte er auf kundenbezogene Daten zugreifen und personalisierte Gespräche führen. 2018 sollte die Anzahl arbeitender humanoider Roboter in Geschäftsstellen der CUB auf 100 ansteigen. Wie in Abb. III.2 zu sehen ist, hat der Roboter in den CUB-Filialen seinen eigenen Platz mit dem Hinweis „Kann ich Ihnen helfen“, und fordert so die Kunden zur Interaktion mit ihm auf. III.2.4 Die Bank of Tokyo-Mitsubishi UFJ (Japan) Auch bei der japanischen Bank „Bank of Tokyo-Mitsubishi“ wird NAO in der Kundenhalle eingesetzt. Bisher dient er hauptsächlich zur Begrüßung der Kunden und zu einfachen Serviceleistungen. Darunter fällt die Beantwortung von Fragen zum Geldwechseln oder zur Benutzung des Geldautomaten. Wie in fast jedem Szenario verfügt der Roboter auch hier über Entertainment-Anwendungen wie das Nachahmen berühmter Posen oder einfache Showcase-Anwendungen wie Tänze. Jedoch verfolgt die Bank mit dem Roboter-Einsatz ein spezielles Hauptziel: Man will über die Fähigkeiten eines humanoiden Roboters deren Akzeptanz ermitteln, um ihn im positiven Fall dann mit seinen fremdsprachlichen Kenntnissen während der Olympischen Spiele in Tokio 2020 sinnvoll in Filialen einsetzen zu können.15 Der Grund ist das für ausländische Besucher eher unübersichtliche japa- 15 Während der Anfertigung des Buches entschied sich das Internationale Olympische Komitee wegen der Cornoa-Krise zu einer Verlegung der Olympischen Spiele in das Jahr 2021. 70 Humanoide Roboter als Partner nische Bankensystem, in dem es Banken zum Teil untersagt ist, Barauszahlungen mit ausländischen Karten zu tätigen. Ziel ist es, dass NAO diesen Besuchern in ihrer Sprache behilflich sein kann. III.2.5 Die HDFC Bank (Indien) Während viele Banken bei Machbarkeitsstudien und Sensibilisierungsversuchen bezüglich humanoider Roboter die SoftBank-Modelle NAO oder Pepper einsetzen, hat die indische Housing Development Financial Corporation (HDFC) Bank in Kooperation mit Asimov Robotics ihren eigenen Roboter konstruiert. Dieser heißt IRA – „Intelligent Robot Assistant“ (dt. „Intelligenter Roboter Assistent“) und verzichtet auf das Kindchenschema (Abb. III.3). Abb. III.3: IRA – „Intelligent Robot Assistant“ Dabei ist eine zweigeteilte Implementierungsphase vorgesehen. Zuerst fungiert der Roboter als Informationsanlaufstelle und geleitet 71 Roboter als Partner in der Finanzwelt die Kunden zu ihrem Wunschort. Später sollen Stammkunden wiedererkannt werden und der Roboter so Abfragen zum individuellen Kontostand ermöglichen. Sollten Kundenresonanz sowie -akzeptanz stimmen, wird eine neue, verbesserte Version des IRA-Roboters erscheinen, die dann auch in anderen Geschäftsstellen zum Einsatz kommen soll. Neben diesen branchenweiten Zielen, sieht der Leiter der Digital Banking Branche der HDFC Bank die Möglichkeit, durch humanoide Roboter die ländlicheren, durch Filialschließungen und Sparmaßnahmen eher betroffen Regionen, wieder besser an das Bankensystem und das damit verbundene Betreuungsangebot anschließen zu können. III.2.6 Die Canara Bank (Indien) Auch die indische Canara Bank benutzt eine Eigenkreation eines humanoiden Roboters – „Mitra“ (siehe rechts). Gebaut vom indischen Start-up Unternehmen Invento, setzt die Firma auf indische Software und chinesische Hardware. Auch in dieser Bank bezeichnet der Technology Manager, B. Venkatesh, Mitra noch als Empfangspersonal, welches den digitalen Geist der Bank verkörpert. Hervorzuheben ist allerdings, dass der Roboter zwei verschiedene Aufgaben übernimmt: Tagsüber dient er zur Beantwortung von FAQs (Frequently Asked Questions) in der regionalen Sprache Kannada, in der Nacht hingegen, patrouilliert er in der Bank als ‚Sicherheitsbeauftragter‘. III.2.7 Der Status-Quo Die meisten Banken haben seit 2018 keine weiteren Aufgabenbereiche für ihre Roboter gefunden, bzw. haben keine Fortschritte zu vermelden. 72 Humanoide Roboter als Partner Bei ATB Financial soll Pepper weiterhin verbessert werden, um auf Kundeninteraktion besser reagieren zu können und um auf Veranstaltungen auch in größeren Kreisen erfolgreich operieren zu können. Nach wie vor steht für den Fall, dass Pepper nicht korrekt funktioniert bzw. mit einer Anforderung nicht entsprechen kann, ein Mensch als Tele-Operateur bereit. Bei der indischen Canara Bank wird Roboter Mitra neben FAQs auch zu Kundenbegleitung eingesetzt, hat dabei aber eher Maskottchencharakter. Die ebenfalls indische HDFC Bank hat ihren Roboter IRA 1.0 auf IRA 2.0 erweitert, der mit zusätzlich Funktionen besonders mit dem Assistant „EVA“ kooperiert, dem Bankeigenen Alexa-Gadget. Damit ist die HDFC Bank die erste Bank im internationalen Raum, deren Roboter über ein Spracherkennungssystem mit Google Assistant oder Alexa funktioniert. Weiterhin möchte die Bank weitere Roboter beschäftigen, setzt dabei aber weder eine Quote für eine Mindestanzahl, noch setzt sie eine Obergrenze. Insgesamt haben immer mehr Banken (auch im europäischen Raum) begonnen, Roboter in Banken einzusetzen, wobei deren Rolle meist nicht über die Rolle als digitales Maskottchen oder Showcase hinausgeht. Das trifft teilweise auch auf die Roboter-Anwendungen der im folgenden Abschnitt herausgehobenen Sparkasse Marburg-Biedenkopf zu. Allerdings darf man diesem Finanzinstitut attestieren, dass trotz verschiedener Einschränkungen gerade im Bereich Datenschutz einige funktionierende Partneranwendungen entwickelt wurden. 73 Roboter als Partner in der Finanzwelt III.3 Die Sparkasse Marburg-Biedenkopf (Deutschland) Vor dem Hintergrund einer zunehmenden Digitalisierung – auch im Finanzsektor – und dem medienwirksamen Einsatz humanoider Roboter im Hörsaal an der Philipps-Universität Marburg, entschloss sich die ortsansässige Sparkasse Marburg-Biedenkopf Anfang 2018 als erster Finanzdienstleister der Region zum Erwerb eines eigenen Pepper-Roboters. Für „Numi“, so der Name dieses Roboters, wurden in Zusammenarbeit mit dem Autorenteam zunächst einfache Showcase-Anwendungen entwickelt, um dadurch die Bevölkerung für den Robotereinsatz zu sensibilisieren. Nach dieser ersten Phase und den positiven Erfahrungen im Umgang mit „Numi“ wurden die Fähigkeiten des Roboters seit Mitte 2018 im Rahmen einer speziellen Kooperation fortentwickelt. Hierfür wurden verschiedene Anwendungsfälle identifiziert, auf „Numi“ implementiert, im Kundenalltag erprobt und anschließend evaluiert. In den folgenden Abschnitten werden die entstandenen Roboter-Apps ausführlich beschrieben und – wenn vorhanden – bezüglich ihrer Mehrwerte evaluiert.16 III.3.1 Der Roboter als Empfangsperson Ein für die Öffentlichkeit unmittelbar sichtbares Einsatzszenario nutzt den Roboter als Empfangsperson im Beratungs-Center der Sparkasse. Aufgrund seiner Fähigkeiten und seiner nie ermüdenden Freundlichkeit erscheint „Numi“ geeignet für diese Rolle. Dieser Anwendungsfall ist aktuell in der Entwicklung und es wurde bereits ein Prototyp entwickelt, im Rahmen derer „Numi“ zunächst 16 Bis Juni 2019 wurde „Numi“ noch als Pepper 2.5 unter Choregraphe/Python entwickelt, nach seinem Upgrade seit Mitte 2019 laufen seine Anwendungen als Pepper 2.9 unter Android. 74 Humanoide Roboter als Partner eine Person anhand ihres Gesichts identifiziert. Im Erfolgsfall sucht der Roboter in einer internen Datenbank nach dem Namen und weiteren persönlichen Daten zur identifizierten Person (natürlich nur bei deren Einwilligung). Wenn er ein Geburtsdatum findet und der Geburtstag am selben oder am vorigen Tag ist, gratuliert der Roboter (nachträglich) im Namen der Sparkasse. Darüber hinaus ermittelt der Roboter, ob die Person einen Termin hat und reagiert je nachdem, ob die Person zu früh, zu spät oder genau richtig zum Termin erschienen ist. An dieser Stelle soll der Roboter in einer zukünftigen Version die Rolle wechseln und die Person als Wegweiser zum Ort ihres Termins im Beratungs-Center bringen. Abb. III.4: „Numi“ als Empfangsperson III.3.2 Der Roboter als Kundentrainer Im Tagesgeschäft der Sparkasse gibt es viele Situationen, in denen es für Kunden wichtig ist zu wissen, wie etwas funktioniert oder welche Vorteile ein Produkt oder Werkzeug bietet. Um die menschlichen Berater bei diesen z. T. zeitintensiven Beratungsgesprächen zu entlasten, wurde mit „Numi“ ein zusätzlicher „Kundentrainer“ Teil des Beratungsteams. Die Sparkasse baut dabei vor allem auf die un- 75 Die Sparkasse Marburg-Biedenkopf (Deutschland) erschütterliche Ruhe, Geduld und Konstanz, die einen Roboter als Maschine auszeichnen. Selbst wenn „Numi“ dieselbe Erklärung zum hundertsten Mal geben soll, wird er sie mit gleichbleibender Qualität und Freundlichkeit geben. Er wird nichts vergessen und auch nicht ungeduldig oder unhöflich werden. Die Themen, die der Roboter als Kundentrainer beherrscht, sind unter anderem • Informationen über die Öffnungszeiten des Beratungs-Centers, • Hilfestellungen für das Ausfüllen von Überweisungen, • Informationen zur Sparkassen-App. Wegen der Möglichkeit, zusätzlich zu „Numis“ gesprochenen Ausführungen multimediale Elemente auf seinem Tablet-Bildschirm zu präsentieren und mit einer erklärenden Darbietung zu koppeln, fiel die Entscheidung, vorhandene Videos und andere Materialien zu integrieren, mit denen die Sparkasse bereits auf anderen Kanälen wirbt. Um einen einseitigen, langweiligen Monolog des Roboters zu vermeiden, wurden mehrere Interaktionspunkte eingebaut, die Videos kurz gehalten (ca. eine Minute) und mit Sprache und Gestik des Roboters verknüpft. Für die Navigation durch die App wurde eine Zwei-Kanallösung aus grafischer Benutzeroberfläche und Sprachsteuerung mittels kurzer Schlüsselwörter implementiert. Der praktische Einsatz der Anwendung hat gezeigt, dass der Roboter seine Informationen erwartungsgemäß mit konstanter Freundlichkeit und Qualität präsentiert. Jedoch liefern die beobachteten Interaktionen zwischen Menschen und dem Roboter-Kundentrainer auch Stoff zum Nachdenken. Häufig fanden Menschen die angebotenen Informationen zwar interessant und schauten sie sich auch oft bis zum Ende an. Aber in vielen Fällen waren diese Informationen für sie zum Zeitpunkt ihrer Interaktion mit dem Roboter gar nicht relevant. Der Roboter war jedoch nicht in der Lage zu erkennen, was der Kunde gerade an Informationen brauchte. 76 Humanoide Roboter als Partner Eine weitere Beobachtung war, dass viele Menschen am Roboter vorbeigingen, wenn er passiv auf seinem Platz stand. Sie kamen gar nicht auf die Idee, den Roboter anzusprechen, vielleicht aus Scheu, vielleicht aber auch aus Unkenntnis über seine Informationskompetenz. Idealerweise sollte der Roboter deshalb zwei Dinge tun: Erstens sollte er selbst die Initiative ergreifen und auf einen Kunden zugehen, durchaus auch im wörtlichen Sinne. Anschließend sollte er unter Vermeidung offener Fragen dem Kunden seine Informationsmöglichkeiten proaktiv auflisten und ihm so mitteilen, über welche Themen er ihn informieren kann. III.3.3 Der Roboter als Wegweiser Eine weitere vielversprechende Anwendung nutzt „Numi“ als interaktiven Wegweiser, der den Kunden hilft, bestimmte Orte bzw. Personen in einem Beratungs-Center zu finden. „Numi“ soll diese Rolle ausfüllen, weil es ihn im Gegensatz zu Menschen nicht stört, den ganzen Tag immer wieder nach denselben Dingen gefragt zu werden. Noch wichtiger ist aber, dass er mobil und fähig ist, mittels einer internen Karte durch einen inneren Bereich zu navigieren. Damit kann er Kunden mündliche Wegbeschreibungen ersparen und sie auf einfache Weise an ihr Ziel bringen. Das Servicepersonal wird auf diese Weise von solchen Routinefragen entlastet, und die Kunden selbst werden die geringeren Wartezeiten und insbesondere den Service, an ihr Ziel gebracht zu werden, als angenehm empfinden. Zur Realisierung dieser „Wegweiser“-Funktion wurde zunächst eine ortsgebundene Variante der Wegweiser-Rolle implementiert, wo der Roboter an seinem Platz bleibt und von dort aus gesprochene Instruktionen unterstützt durch Gesten und Darstellungen auf seinem Tablet gibt. Aufgrund der Vielzahl an Fragemöglichkeiten und der Schwierigkeit, die Bedeutung und Intention einer Frage zuverlässig zu extrahieren, wird dem Kunden dabei eine Vorauswahl an mögli- 77 Die Sparkasse Marburg-Biedenkopf (Deutschland) chen Orten angeboten. In einem nächsten Schritt wurden anhand des Grundrisses und der Raumpläne eigene Karten angefertigt, die der Roboter auf seinem Tablet-Bildschirm anzeigen kann. Da viele Menschen Geräte mit berührungssensitiven Bildschirmen benutzen, wurden die Karten für den Wegweiser bewusst interaktiv gestaltet: Karten haben farblich hervorgehobene anklickbare Bereiche, die für weitere Informationen gedrückt werden können. Kommen nun Menschen in einen Umkreis von drei Metern des Roboters, begrüßt er sie und bietet eine Wegbeschreibung an, zeigt zusätzlich mit ausgestrecktem Arm in die zu gehende Richtung und markiert auf der Karte den aktuellen Standort sowie den Zielort. Abb. III.5 stellt diese Situation als Schnappschuss dar. Abb. III.5: „Numi“ als Wegweiser Die entwickelte Anwendung wurde im Beratungs-Center Marburg erprobt. Dabei stellte sich heraus, dass es nicht ausreicht, wenn der Roboter den Weg zum gewünschten Ziel nur beschreibt, selbst wenn er die Darstellung auf seinem Bildschirm mit einer zeigenden Geste kombiniert, denn vielen Menschen fällt es schwer, ein zweidimensionales Kartenbild auf eine dreidimensionale Örtlichkeit zu übertragen. 78 Humanoide Roboter als Partner Besser wäre es, wenn der Roboter den Menschen gerade in komplexeren Räumlichkeiten wie dem Marburger Beratungs-Center gleich zum Ziel bringt. Darum soll dem Roboter als Wegweiser künftig die Fähigkeit gegeben werden, sich auf Grundlage einer internen Karte zurechtzufinden und die Lage von Orten in der Karte zu identifizieren, so dass er dann dorthin navigieren und den Menschen so zum Ziel begleiten kann. III.3.4 Der Roboter als Interviewer Die Sparkasse hat ein starkes Interesse an Rückmeldungen ihrer Kunden. Diese Rückmeldungen werden über alle verfügbaren Kanäle eingefangen, darunter auch persönlich im Beratungs-Center. Gerne würde die Sparkasse solche Befragungen häufiger durchführen, doch scheitert dies am fehlenden Personal. Deshalb möchte die Sparkasse ihren Roboter dafür einsetzen, überall dort, wo sie persönlich mit Menschen in Kontakt kommt, deren Meinungen zu kontextuell relevanten Themen zu erfragen. Das kann im Beratungs-Center sein oder auf Messen, es kann um Rückmeldungen zu neuen Produkten oder Öffnungszeiten gehen. Wichtig ist der Sparkasse die persönliche Ansprache der Menschen durch den Roboter und die persönlichkeitsgetriebene Durchführung der Befragung. Außerdem soll es einfach für die Befragten sein, ihre Antworten zu geben. Zugleich soll aber die Anonymität ihrer Antworten gewährleistet werden. Die Implementierung dieses Anwendungsfalls stützt sich auf eine interne Datenbank des Roboters, in der sowohl die Umfragen und ihre Elemente als auch die von Menschen gegebenen Antworten gespeichert werden. Der Ablauf der Anwendung beginnt mit der Auswahl einer in der Datenbank gespeicherten Umfrage durch das Personal der Sparkasse. Diese Umfrage läuft dann solange, bis sie vom Personal der Sparkasse beendet wird. Jeder Durchlauf der Umfrage besteht aus einer Menge von Fragen, die dem Menschen nacheinan- 79 Die Sparkasse Marburg-Biedenkopf (Deutschland) der mündlich und visuell auf dem Tablet-Bildschirm präsentiert werden. Um sicherzustellen, dass niemand die Antworten mithören kann, wird für die Eingabe der Antworten ausschließlich der Tablet-Bildschirm verwendet. Jede gegebene Antwort wird sofort in der Datenbank gespeichert, um möglichst viele Daten zur Verfügung zu haben. Aus datenschutzrechtlichen Gründen werden dabei keine Daten gespeichert, die eine Identifizierung der Teilnehmer ermöglichen. Am Ende der Umfrage bedankt sich der Roboter freundlich für die Teilnahme und setzt die Umfrage für den nächsten Teilnehmer auf Anfang. Die Erprobung der Anwendung hat gezeigt, dass Menschen es mögen, nach ihrer Meinung gefragt zu werden, und dass sie auch bereit sind, solche Fragen einem Roboter zu beantworten. Datenschutzrechtliche Bedenken wurden bisher nicht geäußert, allerdings bedarf die Anwendung der Optimierung: In einer zukünftigen Version soll die Interaktion mit der Anwendung auf das Notwendige reduziert werden. So sollen Folgefragen automatisch nach der Beantwortung einer Frage abgerufen werden. Außerdem soll ein Zurückspringen zu früheren Fragen nicht mehr möglich sein. Das hat den Vorteil, dass die erste Antwort des Menschen, die vermutlich die ehrlichste ist, erhalten bleibt. III.3.5 Der Roboter als Produkt- und Markenbotschafter Unternehmen bieten Produkte und Dienstleistungen an und möchten außerdem für sich selbst und ihre Marken ein positives Image in der Öffentlichkeit und gegenüber ihren Mitarbeitern kreieren. Soziale Roboter, die auf Kommunikation und Beziehungsaufbau angelegt sind, können als Botschafter des Unternehmens nach innen und außen für das Unternehmen und das, was es zu bieten hat, werben. Das kann vor Ort in den Räumlichkeiten des Unternehmens passieren, aber auch auf Events und natürlich in den Sozialen Medien. Für 80 Humanoide Roboter als Partner die Rolle des Botschafters wurden dazu über einfache Showcases hinausführende Anwendungen in den folgenden Kategorien entwickelt: • Fotomotiv • Darsteller in den sozialen Medien • Gesprächspartner III.3.5.1 Fotomotiv Roboter, die Menschen in Aussehen und Verhalten nachahmen, sind trotz des sich allmählich abschwächenden Neuheitseffekts nach wie vor etwas Außergewöhnliches in unserem Alltag. Wenn Menschen einem solchen Roboter begegnen, haben sie nicht selten den Wunsch, den Moment in Form eines Fotos oder Videos festzuhalten und mit anderen Menschen zu teilen. Indem sich der Roboter bereitwillig und geduldig als Fotomotiv zur Verfügung stellt, kann er diesem Wunsch nachkommen und den Moment sogar durch das Einnehmen ansprechender Posen intensivieren. Wenn Menschen dann noch mit aufs Foto kommen dürfen, freut sie das umso mehr. Und wenn sie anschließend dieses Selfie mit dem Roboter in den sozialen Medien teilen, wirkt sich dies nicht nur positiv auf ihre eigene Online-Reputation aus, sondern steigert auch das Ansehen des Roboters und nicht zuletzt seines Eigentümers. Auf diese Weise wird der Roboter, auch ohne explizite Botschaft, wie in Abschnitt II.3 ausführlich beschrieben zum Botschafter seiner Institution, der Sympathien für sich selbst und für die Institution weckt. Mit diesen Überlegungen im Hinterkopf wurde ein Anwendungsfall konzipiert, in dem der Roboter dem Wunsch eines Menschen entgegenkommt und ihm anbietet, ein Selfie mit ihm zu machen. Abb. III.6 zeigt die Selfie-Situation mit einem Kunden an. 81 Die Sparkasse Marburg-Biedenkopf (Deutschland) Abb. III.6: Ein Selfie mit „Numi“ Da Selfies vor allem bei jüngeren Zielgruppen gängige Praxis sind, braucht der Roboter für seine Rolle als Fotomotiv Posen, die diese Zielgruppen ansprechen, also unkonventionell und ausgefallen sind. Außerdem muss der Roboter Menschen vor sich erkennen und ansprechen können, weil Menschen sich nach wie vor scheuen, einen Roboter anzusprechen. Wenn dann das Eis gebrochen und die Bereitschaft zum Selfie da ist, darf der Roboter nicht immer wieder die gleiche Pose einnehmen, sondern er muss für Abwechslung sorgen. Darüber hinaus sollen Menschen so viele Selfies mit dem Roboter in unterschiedlichen Posen machen dürfen, wie sie wollen. Um den Roboter in die Lage zu versetzen, einen Menschen anzusprechen, wurde die Anwendung so programmiert, dass der Roboter reagiert, wenn er einen Menschen in einem Radius von bis zu drei Metern vor ihm wahrnimmt. In diesem Fall spricht er den Menschen 82 Humanoide Roboter als Partner an und bietet an, ein Selfie mit ihm in einer per Zufall generierten Pose zu machen. Die Anwendung ist ein Erfolg; sie kommt gut an bei Jung und Alt. Außerdem bekommt die Sparkasse regelmäßig die Rückmeldung von Teilnehmern, dass die gemachten Fotos in den sozialen Medien geteilt werden, was der öffentlichen Wahrnehmung der Sparkasse Marburg-Biedenkopf als innovatives Unternehmen zugutekommt. Es hat sich jedoch herausgestellt, dass Menschen nicht immer mit der zufällig ausgewählten Pose zufrieden sind, sondern den Wunsch haben, sich die Pose des Roboters für das Foto selbst auszusuchen. Außerdem haben sie eine Präferenz für raumgreifende Posen, in denen sich die Arme möglichst weit weg vom Körper befinden. Beide Aspekte sollen in einer verbesserten Version der Anwendung berücksichtigt werden, indem der Posen-Katalog überarbeitet wird und eine Vorschau-Funktion für einzelne Posen hinzukommt. III.3.5.2 Darsteller in den sozialen Medien Die Sparkasse Marburg-Biedenkopf hat ein starkes Interesse daran, ihre Präsenz in den sozialen Medien auszubauen und hat zu diesem Zweck ein eigenes Instagram-Konto angelegt, in dem „Numi“ als Fotomodell und Schauspieler in Fotos und Videos für die Social- Media-Outlets der Sparkasse auftritt, die Themen aufgreifen, die für die Sparkasse und deren Kunden von Interesse sind. Dass „Numi“ in solchen Darbietungen zu sehen ist, generiert nicht nur Aufmerksamkeit, sondern sendet darüber hinaus die klare Botschaft, dass die Sparkasse im Bereich Digitalisierung stark engagiert ist. Inhalte werden weiterhin regelmäßig auf diesem Kanal sowie auf Facebook und YouTube veröffentlicht, und die Sparkasse ist zuversichtlich, dass die zunehmende Beliebtheit des Roboters in den sozialen Medien dessen eigenes Image und auch die öffentliche Wahrnehmung der Sparkasse fördern wird. 83 Die Sparkasse Marburg-Biedenkopf (Deutschland) III.3.5.3 Gesprächspartner Menschen sind auf die Kommunikation mit anderen von Angesicht zu Angesicht ausgelegt, und sie übertragen unbewusst das, was ihnen aus der zwischenmenschlichen Kommunikation vertraut ist, auf die Kommunikation mit einem Roboter, der menschenähnlich aussieht und sie anspricht. Aus dieser Erkenntnis entstand die Idee für einen Anwendungsfall, in dem der Roboter als allgemeiner Gesprächspartner für Kunden zur Verfügung steht. Wenn Menschen ihn im Beratungs-Center ansprechen, soll der Roboter sich im folgenden Dialog angemessen verhalten. Gewünscht ist eine Dialogfähigkeit, die kompetent und einfühlsam ist, aber zugleich die Persönlichkeit des Roboters klar durchblicken lässt. Außerdem ist der Roboter natürlich auch in unverbindlichen Gesprächen mit Kunden Botschafter der Sparkasse und soll deren Anliegen und Werte kommunizieren. In der Rolle des Gesprächspartners soll der Roboter damit über die mitgelieferten banalen generischen Dialoge wie „Wie heißt Du?“ oder „Bist Du ein Roboter?“ deutlich hinausgehen. Synergieeffekte ergeben sich dadurch, dass eine gesteigerte Kommunikationsfähigkeit einen Mehrwert hat, der über die Rolle des Gesprächspartners hinausgeht und auch in anderen Rollen des Roboters wichtig sein wird. Die Herausforderung bei der Implementierung dieses Anwendungsfalls besteht im Schreiben von Dialogen, die die gewünschten Inhalte in einer Form transportieren, die sowohl die einzigartige Persönlichkeit des Roboters betont als auch mit dem Image der Sparkasse im Einklang steht. Bisher wurden die standardmäßig mitgelieferten Dialoge des Roboters für die deutsche Sprache korrigiert, vervollständigt und um sparkassenspezifische Inhalte ergänzt. Für die Zukunft wird die Integration des Chat-Bots Linda des Finanzportals der Sparkassen angestrebt, um den Dialogen vor allem inhaltlich mehr Tiefe zu geben. 84 Humanoide Roboter als Partner III.3.6 Der Roboter als Unterhalter Als Unterhalter spielt der Roboter Spiele mit Menschen, erzählt ihnen Geschichten oder Witze, und vertreibt ihnen so die Zeit, etwa wenn sie auf etwas warten müssen. Auch wenn dieser Rolle auf den ersten Blick die gebotene ‚Seriosität‘ fehlt, so kann Unterhaltung doch positive Wirkungen entfalten. Sie kann Langeweile vermeiden oder reduzieren, die Stimmung von Menschen heben und eine positive Wahrnehmung der Institution, für die der Roboter arbeitet, fördern. In seiner Rolle als Unterhalter hat der Roboter der Sparkasse bisher folgenden Rollen eingenommen: • Märchenerzähler • Quizmaster III.3.6.1 Märchenerzähler Ein Ziel der Sparkasse ist es, für Eltern mit Kindern den Besuch einer Geschäftsstelle attraktiver zu machen. Eltern dürfen und sollen ihre Kinder zu Terminen dort mitbringen, auch damit die nächste Generation schon früh mit der Sparkasse in Berührung kommt. Es geht also darum, den Aufbau von Beziehungen zur Sparkasse bereits im Kindesalter zu fördern. Ein Problem ist jedoch, dass in der Regel nur die Erwachsenen in der Geschäftsstelle etwas zu erledigen haben, wohingegen sich die Kinder eher langweilen, gerade während die Eltern im Beratungsgespräch sind. Die Sparkasse suchte darum eine Lösung, die beides erreicht: Kinder sollten beschäftigt werden und zugleich erste Bindungen zur Sparkasse entwickeln. Weil Kinder Märchen (und ihre Erzähler) mögen, entstand die Idee, den Roboter als Märchenerzähler einzusetzen, dem Kinder zuhören, während die Eltern ihre Geschäfte in der Sparkasse erledigen. Die Aufgabe des Roboters sollte sein, durch sein menschen- ähnliches Aussehen und seine lebhafte, gestenreiche Erzählweise die 85 Die Sparkasse Marburg-Biedenkopf (Deutschland) Erzählung emotional aufzuladen, sie menschlich zu machen und die Kinder dadurch zu fesseln. Der Erzählprozess sollte dafür genutzt werden, eine persönliche Beziehung zum Rezipienten aufzubauen. Dies würde einen deutlichen Mehrwert gegenüber dem Abspielen eines Märchenvideos auf dem Tablet bieten. Der Roboter sollte eine Auswahl von verschiedenen Märchen haben, aus denen die Kinder auswählen können. Die Märchen durften jeweils nicht zu lang sein, damit sie den Kindern nicht zu langweilig werden und damit die Eltern nicht zu lange warten müssen, bis ihre Kinder eine Geschichte zu Ende gehört haben. Der erste Schritt zur Implementierung dieses Anwendungsfalls bestand in der Auswahl der Geschichten, die der Roboter im Repertoire haben sollte. Die Wahl fiel auf Märchen der Brüder Grimm, weil diese in Deutschland auch heute noch immer bekannt sind, eine Vorleselänge von maximal zehn Minuten haben und lizenzfrei im Volltext zur Verfügung stehen. Der Text der Märchen wurde in Vorleseeinheiten unterteilt und die Ausdrucksweise, wo erforderlich, modernen Sprachstandards angepasst. Wenn der Mensch ein Märchen ausgewählt hat, liest der Roboter die Geschichte vor, eine Vorleseeinheit nach der anderen, immer unterstützt durch Gesten. Außerdem werden die vorgelesenen Passagen nacheinander auf dem Tablet-Bildschirm des Roboters dargestellt, wobei die aktuelle Passage hervorgehoben wird, damit der Mensch mitlesen kann. Das Vorlesen kann jederzeit pausiert und am Ende wiederholt werden. Diese Anwendung erfreut sich großer Beliebtheit bei jungen Besuchern einer Kernzielgruppe von fünf bis zehn Jahren. In Einzelfällen waren Kinder nicht vom Roboter weg zu bewegen, bevor sie nicht die ausgewählte Geschichte ganz von ihm gehört hatten. Andere wollten weitere Geschichten hören, nachdem die erste zu Ende war. Die Popularität der Anwendung ist insofern eine erfreuliche Überraschung als auf Visualisierung der erzählten Märchen ver- 86 Humanoide Roboter als Partner zichtet wurde und lediglich die mündliche Erzählung durch den Roboter erfolgt. III.3.6.2 Quizmaster Ratespiele eignen sich gut, um Menschen intellektuell stimulierend für eine Zeit zu beschäftigen, z. B. während sie warten müssen. Gesucht wurde eine Art Quiz, das sich sowohl für jüngere als auch für ältere Menschen eignet und außerdem positiv besetzt ist. Die Wahl fiel auf das klassische „Dalli Klick“-Format. Von 1971 bis 1986 gab es im deutschen Fernsehen ein populäres Quiz namens „Dalli Dalli“. Ein wiederkehrendes Element der Sendung war, dass Kandidaten Bilder erraten mussten, die zu Anfang komplett geschwärzt und dann Bildteil für Bildteil sichtbar gemacht wurden. Wer das Bild als erstes erriet, hatte gewonnen. Bei vielen Erwachsenen weckt dieses Spiel positive Erinnerungen, und auch Kinder haben Spaß daran. Die zu erratenden Bilder können für die Zielgruppe angepasst werden, so dass z. B. Kindern kindgerechte Bilder gezeigt werden, während Erwachsene Bilder aus ihrer Erfahrungswelt zu sehen bekommen. Der Roboter soll in der Rolle des Quizmasters die Initiative in der Interaktion mit dem Menschen übernehmen und ihn Bild für Bild durch das Quiz führen. Zunächst wurden für die beiden ausgewählten Zielgruppen – Erwachsene und Kinder – passende Bilder aus der jeweiligen Erfahrungswelt ausgewählt. Für Erwachsene fiel die Wahl auf deutsche Berühmtheiten, Landschaften, oder Ähnliches. Für Kinder wurden Tierbilder ausgewählt. Zu jedem zu lösenden Bild mussten die Phrasen festgelegt werden, die als Lösung gelten sollten. Eine einzige Phrase pro Bild war in der Regel nicht genug, da es verschiedene Bezeichnungen für das gezeigte Motiv gab. Deshalb akzeptiert der Roboter beispielsweise beim Bild von Franz Beckenbauer folgende Antworten: „Beckenbauer“, „Franz 87 Die Sparkasse Marburg-Biedenkopf (Deutschland) Beckenbauer“ und „der Kaiser“ oder „Kaiser“, weil die Person auch unter diesem Namen bekannt ist. Abb. III.7: „Dalli-Klick“ mit „Numi“ Das Quiz mit dem Roboter läuft wie folgt ab. Zunächst fragt der Roboter, ob der Mensch ein Erwachsener oder ein Kind ist.17 Dann führt der Roboter den Menschen Bild für Bild durch das Quiz. Jedes Bild wird anfangs komplett verpixelt auf dem Tablet des Roboters angezeigt. Der Mensch versucht das Bild im Dialog mit dem Roboter zu erraten. Dabei hat er eine begrenzte Anzahl an Versuchen. Mit jedem Versuch wird das gezeigte Bild deutlicher und damit leichter zu erraten. Die Aufgabe des Roboters im Dialog ist in erster Linie motivierend: Jeder falsche Vorschlag wird mit einem charmanten Satz und einer Geste verneint, daraufhin wird der Benutzer motiviert, es noch einmal zu versuchen. Wurde das Motiv auf dem Bild erraten, spricht der Roboter ein Lob aus. 17 In einer zukünftigen Version soll der Roboter selbst erkennen können, ob der Mensch, der mit ihm spielen möchte, ein Erwachsener oder ein Kind ist. 88 Humanoide Roboter als Partner Zum jetzigen Zeitpunkt ist der Fundus an Bildern für das Ratespiel noch recht klein. Da Kunden aber nicht für längere Zeit oder primär zum Spielen ins Beratungs-Center kommen, ist die begrenzte Anzahl an Bildern momentan ausreichend. Mittels einer grafischen Benutzeroberfläche können aber neue Bilder leicht der Datenbank hinzugefügt werden. Auch diese Unterhaltungsanwendung hat positive Resonanzen hervorgerufen. Vor allem Erwachsene kannten das Quiz und haben gerne mitgespielt. Als problematisch erwies sich jedoch, dass der Roboter grundsätzlich immer nur einen Gesprächspartner fokussiert und Spracheingaben für die Lösung nur von diesem akzeptiert hat. Wenn dann mehrere Menschen vor dem Roboter standen und gleichzeitig das Bild erraten wollten, sagte oft diejenige Person die richtige Lösung, die der Roboter gerade nicht im Fokus hatte. Deswegen wurde deren Spracheingabe nicht erkannt, was wiederum zu Irritationen bei den menschlichen Mitspielern führte. In einer zukünftigen Version soll deshalb versucht werden, die Fokussierung des Roboters soweit zu lockern, dass er Spracheingaben von mehreren Menschen vor ihm akzeptiert. III.4 Fazit: Humanoide Roboter im Finanzwesen Obwohl durch den Einsatz von „Numi“ im Tagesgeschäft der Sparkasse mittlerweile verschiedene Mehrwerte entstanden sind, geht es allerdings immer auch um den Imageeffekt und die Kundenbindung. Die Kunden sollen gerne in die Filiale kommen, sich wohlfühlen, und im besten Fall auch eigeninitiativ mit dem Roboter interagieren, um aus einem ‚normalen‘ Bankbesuch eine prägende Customer Experience zu machen, so wie es in anderen Branchen schon lange die Norm ist. Neben der Möglichkeit in der Zukunft Mitarbeiter von lästigen Fragen zu befreien, handelt es sich dabei aber auch immer noch 89 Fazit: Humanoide Roboter im Finanzwesen um eine Machbarkeitsstudie, welche die Einsatzmöglichkeiten eines humanoiden Roboters im Finanzwesen unter Berücksichtigung der Kundenakzeptanz austestet. Der Einsatz humanoider Roboter steckt im Allgemeinen bis heute immer noch in den Kinderschuhen, und viele Banken nutzen den Hype, um durch die Zurschaustellung humanoider Roboter Kunden anzuziehen. Echte Mehrwerte durch partnerschaftliche Anwendungen wie in der Sparkasse Marburg-Biedenkopf bleiben die Ausnahme. Diese Situation spiegelt sich in grundverschiedenen Auffassungen der Verantwortlichen im Finanzwesen wieder. Auf der einen Seite stehen Verantwortliche, die von einer Revolution im Finanzwesen durch den Einsatz humanoider Roboter überzeugt sind. Hierzu gehört der ehemalige Chef der Deutschen Bank John Cryan. Dieser äußerte sich 2017 auf einer Handelsblatt-Bankentagung wie folgt: „In unserer Bank arbeiten Menschen wie Roboter. Morgen werden wir Roboter haben, die sich wie Menschen verhalten. Es spielt keine Rolle, ob wir als Bank an diesen Änderungen teilnehmen oder nicht, es wird passieren.“ [INT6] Auf der anderen Seite, gibt es auch Skeptiker, die diese Meinung noch nicht teilen und der Entwicklung eher zurückhaltend gegenüberstehen. Ein Mitarbeiter der Bank of Tokyo-Mitsubishi UFJ vertrat 2015 dazu die folgende Meinung: „Vorerst und auf absehbare Zeit ist NAO wenig mehr als eine süße Ergänzung bestehender Dienste. Aber wenn Roboter wie NAO den Kunden helfen können, die manchmal undurchdringliche Fassade des Bankensystems zu durchqueren, können sie ein Gimmick sein, das es wert ist, verfolgt zu werden.“ [INT7] 90 Humanoide Roboter als Partner III.5 Roboter als Partner im privaten Bereich Kann ein Roboter als Partner im privaten Bereich fungieren? Kann er ‚normales‘ Familienmitglied werden oder sind seine Partnerfunktionen auf bestimmte Szenarien beschränkt? Die Frage nach dem Mehrwert einmal außer acht lassend, gibt es sicherlich zahlreiche Anknüpfungspunkte im privaten Bereich. So kann z. B. ein humanoider Roboter als sozialer Agent im Dialog unterhaltsam sein, er kann ja Fragen beantworten und Spiele durchführen. Doch muss es unbedingt ein Roboter sein, der diese Funktionen übernimmt? So lassen sich beispielsweise Dialoge derzeit besser mit intelligenten Assistenten wie Amazon Echo, Siri oder Cortana, um nur einige zu nennen, führen. Diese sind zwar nicht mobil, man baut auch keine emotionalen Bindungen zu ihnen auf, doch erfüllen sie heute schon fast perfekt alle Erwartungen in Punkto Informationsgewinnung und –abruf. Da können Roboter mit ihrer eingeschränkten Dialogfähigkeit nicht mithalten. Wenn es allerdings um Einsätze im Spielebereich geht, dann haben Roboter durch ihre Interaktionsfähigkeit durchaus ihren Platz im familiären Bereich. Typische Beispiele für Unterhaltungsspiele mit Pepper sind: • „Ball in a Cup” von SoftBank Robotics • „Memory“ von Intuitive Robots • „Schere – Stein – Papier“ von RoboPraX • „Pantomime“ von RoboPraX Dazu kommen noch die in der Pflege eingesetzten Gymnastikprogramme, Quiz-Anwendungen oder das schlichte Erzählen von Witzen durch Roboter. 91 Roboter als Partner im privaten Bereich Somit können humanoide Roboter trotz reduzierter Dialogfähigkeit durch ihre Emotionalität den Alltag durchaus bereichern. Ob das allerdings den Preis für die Anschaffung eines Roboters für die private Nutzung rechtfertig, sei dahingestellt. Ein gutes Computerspiel erfüllt möglicherweise den gleichen Zweck und ist kostengünstiger. Pepper als Familienmitglied? Eine junge Frau schiebt ein seltsames Gefährt durch die Gassen von Nishi-Nippori, einem Vorort von Tokyo. Sie fährt einen kleinen Roboter spazieren. Der heißt: Pepper. „Pepper ist Familie für mich“, sagt Tomomi Ota: „Vater, Mutter, Pepper.“ Die Beziehung zwischen Roboter und Frau Ota ist in den sozialen Medien weltweit dokumentiert. Dafür sorgt sie selbst: „Facebook? Nein, Instagram. Ja, ich kann mit ihm kommunizieren. Ich habe ihn selbst programmiert“, sagt sie. Die Dreißigjährige ist Computerfachfrau, aber auch Musikerin. Und sie gibt Konzerte, mit Pepper. Seit bald zwei Jahren lebt sie mit Pepper, geht mit ihm Einkaufen oder in Restaurants. „Nein“, hat sie in Zeitungsinterviews gesagt, „Pepper ist nicht mein Lover. Wir lieben uns, aber so wie Familienmitglieder einander lieben.“ (Quelle: [INT5]) Soll man also Berichten wie dem oben stehenden Glauben schenken? Lässt sich mit einem Roboter ein neues Familienmitglied als Gesprächspartner gewinnen? Wohl eher nicht. Ein vereinbartes längeres Interview mit den Medien in Japan hat die Entwicklerin abgesagt. Alle derartigen ‚privaten‘ Einsatzszenarien sind ausschließlich auf Video verfügbar und werden letztlich auch auf eher fragwürdige Nutzungen, wie z. B. das Mitsingen von Liedern über vorgefertigte Audio-Dateien zur Klavierbegleitung, reduziert. Auch wenn z. B. für einsame Menschen, gerade im Alter, ein Bedürfnis nach Konversa- [V.III.2] 92 Humanoide Roboter als Partner tion besteht, so sind die gegenwärtigen Einschränkungen humanoider Roboter im Punkto Dialogfähigkeit nicht dazu geeignet, dieses Bedürfnis hinreichend zu erfüllen. Es gibt allerdings Anwendungsbereiche, in denen die Vermenschlichung von Robotern größere gesellschaftliche Auswirkungen auf das menschliche Miteinander haben könnte. Das Paradebeispiel dafür sind die sogenannten „Sexroboter“. Diese Androiden sind eine relativ neue Schöpfung der Erotikindustrie. Abb. III.8 zeigt zwei Beispiele solcher ‚höchst privater‘ Roboter. Abb. III.8: Die Androiden „Harmony“ und „Henry“ Roboter wie „Harmony” oder „Henry“ sind mit künstlichen Beinen und Armen ausgestattet, sie tragen Perücken, verfügen über Augen mit vollen Wimpern und sind mit einem Überzug aus Silikon ausgestattet, der an Haut erinnern soll. Zusätzlich können sie Dialoge führen und per Smartphone-App in gewünschte emotionale Zustände versetzt werden, um so dem menschlichen Begleiter so nah wie möglich zu kommen. 93 Roboter als Partner im privaten Bereich Die Grenzen der Sexroboter-Technologie sind derzeit vor allem die fehlende Mobilität, aber auch die von einfachen humanoiden Robotern bekannte eingeschränkte Interaktion, die durch Konversation zwar imitiert wird, jedoch nicht vollständig nachgestellt werden kann. Abgesehen von den technischen Einschränkungen existieren derzeit noch keine gesellschaftlichen Normen dafür, wie wir mit diesen speziellen Androiden umgehen. III.6 Roboter als Partner im Bereich Pflege Auch beim Einsatz humanoider Roboter in der Pflege kann Japan als Vorreiterland angesehen werden. Hintergrund ist die immer älter werdende Bevölkerung und die damit verbundenen schwindenden Arbeitskräfte, besonders im Pflegebereich. Humanoide Roboter sollen, so der Plan, den steigenden Pflegekraftmangel eindämmen. Seit vielen Jahren stellt das Land Roboter in der Öffentlichkeit als freundliche Zeitgenossen dar und hat die Bevölkerung somit bereits sensibilisiert. Das hat zu einer sehr offenen Einstellung gegenüber humanoiden Robotern geführt. Der Grundstein für den Einsatz humanoider Roboter im allgemeinen und damit auch in der Pflege, ist somit schon seit langem gelegt. In den einfachsten Fällen werden Roboter wie Pepper wie üblich als Showcase (Spiele, Tänze, Lieder abspielen, etc.) und für das Erteilen vorgefertigter Anweisungen bei Turnübungen eingesetzt. In der Betreuung von Demenzkranken ist Pepper ein guter ‚Zuhörer‘ und beantwortet – mit den bekannten Einschränkungen – auch wiederkehrende Fragen gerne noch einmal und das mit dem gleichen Enthusiasmus. Neben Pepper-Modellen werden dabei auch andere humanoide Roboter, aber auch nicht-humanoide Roboter wie PARO, der therapeutische Robben-Roboter, oder AIBO, der tierhafte Roboter, eingesetzt (Abb. III.9). [V.III.3] 94 Humanoide Roboter als Partner Abb. III.9: PARO und AIBO Auch in Deutschland haben humanoide Roboter in den letzten Jahren das Interesse am Einsatz im Pflegebereich geweckt und zu beträchtlichem Forschungswillen sowie Interesse an Machbarkeitsstudien beigetragen. Mittlerweile wird vielfach die Meinung vertreten, dass der demografische Wandel und die damit einhergehende Überalterung der Gesellschaft die Pflegelandschaft in Deutschland stark verändern werden. Anhand zweier Pilotprojekte soll aufgezeigt werden, welchen Beitrag humanoide Roboter zu diesem Wandel leisten können. III.6.1 Das Projekt ARiA Das vom BMBF geförderte Projekt ARiA „Anwendungsnahe Robotik in der Altenpflege“ der Universität Siegen und der Fachhochschule Kiel geht der Frage nach „Wie sieht unsere Arbeit mit Robotern in der Pflege aus?“. Dazu wurden zusammen mit Pflegekräften, Angehörigen und Pflegebedürftigen sinnvolle Einsatzszenarien für Pepper- 95 Roboter als Partner im Bereich Pflege Roboter im Arbeitsumfeld der Pfleger oder im Alltagsumfeld der zu Pflegenden festgelegt. Auch wenn die Roboter-Anwendungen selbst allerdings auf dem bereits erwähnten Kontinuum zwischen Showcase und Partner-Anwendungen angesiedelt waren, konnten dem Pflegepersonal einfache Aufgaben, z. B. Bewegungsübungen, abgenommen werden, und sie konnten ihren Fokus auf die eigentliche Betreuungsarbeit legen. Die ersten Ergebnisse des Roboter-Einsatzes zeigten, neben einer hohen Akzeptanz, die durch wiederholt veranstaltete Workshops noch gesteigert werden konnte, eine große Bereitschaft der Senioren, sich mit digitaler Technik zu beschäftigen. Darüber hinaus wurde deutliche, dass Pflegekräfte mit einer anfangs negativen Einstellung gegen- über dem Roboter-Einsatz in der Pflege, diese Vorurteile schnell reduzieren konnten, da klar wurde, dass der Roboter der Unterstützung bei der täglichen Arbeit und nicht als Ersatz des Pflegepersonals dient. Abb. III.10: Roboter-Einsatz in der Pflege 96 Humanoide Roboter als Partner III.6.2 Das Projekt SMiLE Ein weiteres im Bereich Pflege angesiedeltes Projekt wird vom Bayerischen Staatsministerium für Wirtschaft und Medien, Energie und Technologie gefördert und nennt sich SMiLE – Service-Robotik für Menschen in Lebenssituationen mit Einschränkungen. Ziel des Projekts ist es im Rahmen einer Kollaboration zwischen der Caritas und dem Deutschen Zentrum für Luft- und Raumfahrt (DLR), Menschen mit krankheitsbedingten Bewegungseinschränkungen durch Roboter-Einsatz zu helfen und ihnen somit ein erfüllteres sowie selbständigeres Leben zu ermöglichen. Zielgruppe sind dabei ältere, oft alleinstehende Menschen, die weiterhin in ihrer Wohnung bzw. in ihrem Haus leben möchten, ohne eine permanente Pflegekraft zu beschäftigen – ob dies wider Willen oder aus finanziellen Gründen nötig ist, sei dahingestellt. Daher ist das grundlegende Ziel der humanoiden Roboter in diesem Projekt, Personen mit Mobilitätseinschränkungen Selbständigkeit und Selbstbestimmtheit zu ermöglichen und so lange wie möglich zu gewährleisten. Im Rahmen des Projekts soll der vom DLR entwickelte humanoide, Roboter „Rollin’ Justin“ als Unterstützung für ältere Personen mit moderaten Mobilitätseinschränkungen dienen. Der Roboter stammt aus der Forschung im Bereich der Service-Robotik mit Hauptaugenmerk auf den Haushalt und die Assistenz von Astronauten im Weltall. Dies erklärt auch seine Größe von 1,91 m, und sein Gewicht von ca. 200 kg. Jedoch kann er aufgrund seiner großen Freiheitsgerade in fast allen Gelenken sich beinahe flexibler bewegen als ein Mensch. Benutzer können hier auch auf die Unterstützung durch Angehörige, welche den Roboter über Kommunikationsgeräte (Smartphone, Tablet) ansteuern können, sowie durch ein Pflege-Kontrollzentrum, das per Telefon zu erreichen ist, zählen. 97 Roboter als Partner im Bereich Pflege Abb. III.11: Rollin’ Justin Auch bei diesem Projekt wird betont, dass der Einsatz von Robotern nicht auf den Ersatz des Pflegepersonals hinzielt, sondern dieses vielmehr bei bestimmten Aufgaben entlasten und unterstützen soll. Zwar liegen noch keine Einsatzdaten von „Rollin’ Justin“ vor, allerdings sind sich die Projekt-Verantwortlichen bewusst, dass ein solch großer Pflegeroboter auch einschüchternd wirken kann. Dennoch zeichnet sich ab, dass durch die Unterstützung von „Rollin’ Justin“ älteren und/oder körperlich beeinträchtigten Menschen es durchaus ermöglicht werden kann, möglichst lange selbständig zu agieren. 98 Humanoide Roboter als Partner III.7 Synergien Erkenntnisse aus den Einsätzen humanoider Roboter aus einer Branche können in dieser Anfangsphase der Implementierung große Synergieeffekte und Abhilfen in anderen Bereichen schaffen. Zum Beispiel spielt der Einsatzort, ob Hörsaal, Gemeinschaftsraum im Pflegeheim oder Kundenhalle einer Bank, keine Rolle, wenn es um den Neuheitsfaktor eines humanoiden Roboters geht. Die Erfahrung hat gezeigt, dass in jedem Fall zunächst ein Grundbedürfnis besteht, den Roboter kennenzulernen. Dass dabei Kinder besonders großes Interesse an solchen Erstkontakten haben, zeigt Abb. III.12. Abb. III.12: Bild Pepper mit Kindern Dabei spielt es zunächst keine Rolle, dass die dahinterliegenden Hauptziele des Einsatzes unterschiedlich sind. Genauso können Erkennt- 99 Synergien nisse darüber, wie humanoide Roboter in ‚öffentlichen‘ (lauten, vollen, etc.) Umgebungen funktionieren und entsprechend programmiert werden, von einem Bereich auf den anderen übertragen werden. Ähnlich verhält es sich mit Erfahrungen aus 1-zu-1 Mensch-Roboter-Interaktionen. Ein großer Unterschied betrifft jedoch den Zugriff auf persönliche Daten durch den Roboter in den verschiedenen Umgebungen. Während Studenten in den meisten Fällen kein Problem haben ihre Lernerdaten für Analysezwecke preiszugeben und sogar gewillt sind mehr für eine persönlichere Beratung mit dem Roboter zu geben (siehe Abschnitt. IV.2.1.1), ist dies in einer Bank nicht der Fall. Dies liegt einerseits an der unterschiedlichen Klientel, aber auch an der Vertrautheit der Daten und der nicht unbegründeten Angst, der Roboter könnte die Daten missbrauchen. Erfahrungen und Erkenntnisse aus dem Finanzsektor können aus den eben genannten Gründen auch in anderen Feldern helfen und den Entwicklungsaufwand mindern. Die folgenden Richtlinien können zu diesem Zweck als Hilfestellung genutzt werden. Erwartungshaltung: Vor allem beim Erstkontakt mit einem humanoiden Roboter, sind die Erwartungshaltungen meist zu hoch gegriffen. In einem Zeitalter von Siri, Alexa und Co. erwarten die meisten Menschen, dass etwas so Menschliches wie Pepper, zumindest doch verbal so gut ist wie beispielsweise die Software eines Smartphones. Jedoch ist dies noch nicht der Fall, da Pepper-Roboter in ihrer derzeitigen Standardkonfiguration mit dem On-Board Speech Processing System „Nuance Remote“, das auch ohne Internetverbindung funktionieren muss, unterlegen sind. Daher sollte, losgelöst vom Einsatzgebiet, vor der Erstinteraktion eine kleine Einführung bereitgehalten werden, sodass die Nutzer des Roboters nicht aufgrund zu hoher Erwartungshaltung enttäuscht werden. 100 Humanoide Roboter als Partner Handhabung: In vielen Fällen wird zur Interaktion das Tablet betätigt anstatt verbal mit dem Roboter zu kommunizieren. Entweder die Erwartungshaltung ist zu hoch und der Roboter antwortet auf die komplexen Fragen der Kunden nicht, sodass zur Tablet-Eingabe übergegangen wird, oder es besteht eine Scheu, mit ihm zu reden oder sogar eine Unkenntnis über seine verbalen und non-verbalen Fähigkeiten und Reaktionen (siehe Abb. I.19, LEDs). In jedem Fall ist es von Vorteil, dem Nutzer klar zu machen, auf welche Art und Weise er mit dem Roboter interagieren kann. Geräuschpegel: In der Kundenhalle einer Bank, auf dem Flughafen, dem Gemeinschaftsraum eines Pflegeheims oder in einem vollbesetzten Seminarraum an einer Hochschule gibt es immer eine gewisse Geräuschkulisse. Auf Grund von fehlender Trennschärfe ist es daher für Roboter oft unmöglich, die für einen Dialog relevante Audioquelle aus einer Menge von Geräuschen zu lokalisieren. Daher kann es von Vorteil sein, den Stimulus „Sound“ in solchen Umgebungen auszuschalten, um so fehlerhafte Audio-Identifizierungen und damit ungewollte Ablenkungen zu vermeiden. Es ist daher wichtig, den Roboter an einem möglichst von externen Geräuschen losgelösten Ort zu platzieren bzw. einen Hauptstandpunkt einzurichten und wie erwähnt, ggf. auf den Stimulus „Audio“ zu verzichten. Objekterkennung: Extreme Lichtverhältnisse und schlecht ausgeleuchtete Objekte können Probleme bei der Objekterkennung bereiten. Besonders auffällig wird dieses Problem, wenn z. B. in einem Fernsehstudio mit einer Vielzahl von Lichtquellen und Studiolampen ein Roboter für die Gesichtserkennung eingesetzt wird.18 Sowohl die Form von Objekten als auch die Beleuchtung selbst können hier hinderlich sein. So kann z. B. eine gut beleuchtete runde Form, z. B. ein 18 Siehe Abschnitt I.3.1.2, S. 34, Peppers Problem im Studio des HR-Fernsehens. 101 Synergien Ball, bei entsprechender Ausleuchtung sehr leicht als ein menschlichem Gesicht erkannt werden, umgekehrt kann ein Roboter ein überstrahltes menschliches Gesicht auf Grund fehlender Konturen leicht als Ball identifizieren. Aus diesen Gründen ist es wichtig, den Standpunkt des Roboters sowie die Umgebung zu analysieren und sicherzustellen, dass Menschen und physikalische Objekte dort relativ problemfrei erkannt werden können. Räumlichkeiten: Soll der Roboter nicht nur stationär eingesetzt werden, ist es wichtig, sich ein Bild von den Räumlichkeiten zu machen, denn der Untergrund kann eine Rolle spielen: Bestimmte Teppiche, Parkett oder Fliesen mit größeren Fugen, Türschwellen, Blumentöpfe, enge Gänge, all diese Bodenbeläge und zusätzliche Objekte können die Bewegung des Roboters erheblich einschränken. Daher ist es wichtig, vor einem entsprechenden Roboter-Einsatz den Einsatzort zu kennen und ggf. den Roboter den Raum kartographieren zu lassen, um ihm die Orientierung im Raum zu erleichtern. III.8 Ausblick: Roboter als Partner in der Bildung Bedingt durch die fachliche Ausrichtung des Autorenteams ist ein besonderes potenzielles Einsatzgebiet für humanoide Roboter die Bildung. In den letzten Jahren haben Wissenschaftler begonnen, Roboter für den Unterricht zu entwickeln – nicht die Roboterbausätze, mit denen man über Technik und Mathematik lernt, sondern humanoide Roboter, die tatsächlich im Unterrichtsgeschehen mitwirken können. Denn die Forderung nach einem stärker personalisierten Unterricht hat zu einer Suche nach technologischen Lösungen geführt. Daher geht man davon aus, dass humanoide Roboter Teil der Bildungsinfrastruktur werden, genau wie Papier, Whiteboards und Computer- 102 Humanoide Roboter als Partner tabletts, darüber hinaus aber das Potenzial besitzen, Schüler auf eine Weise zu unterstützen und herauszufordern, die in den derzeitigen ressourcenbeschränkten Bildungsumgebungen nicht zur Verfügung steht. Roboter können wertvolle Zeit für Lehrer freisetzen, so dass sich der Lehrer auf das konzentrieren kann, was Menschen noch am besten können – eine umfassende, einfühlsame und lohnende Bildungserfahrung zu bieten. III.8.1 Spezielle Zielgruppen Bis heute ist es nicht möglich, humanoide Roboter zielgruppenunabhängig einzusetzen. Nahezu alle bekannten und bisher untersuchten Einsatzszenarien beziehen sich auf klar umrissene, z. T. sogar in bestimmten Fähigkeiten ‚eingeschränkte‘, Zielgruppen, wie z. B. Kinder im Vorschulalter, demenzkranke Patienten im hohen Alter oder Autisten. Es ist schlicht wesentlich einfacher, für derartige Zielgruppen sinnvolle Roboter-Anwendungen zu entwickelten, als z. B. für Schüler in der Sekundarstufe II oder für Hochschulstudenten mit entsprechend höheren intellektuellen Ansprüchen. Ein Roboter-gestützter Vokabeltrainer mit beispielsweise 30 Begriffen oder ein Single-Choice-Quiz mit fünf Wissensfragen ist für Kinder bzw. Demenzkranke sicherlich ein angemessener Anspruch und damit einfacher zu gestalten als eine kompetenzorientierte Recherche-Aufgabe auf Hochschulniveau. Aus diesem Grund beziehen sich die meisten bisher bekannten und primär in experimentellen Situationen getesteten Partner-Anwendungen in der Bildung auf derartige restriktive Situationen. Zwei solcher Beispiele sollen in den folgenden Abschnitten vorgestellt werden. In beiden Fällen agiert ein NAO-Roboter als Partner in ausgewählten Lernszenarien für Lerner im Vorschulalter. 103 Ausblick: Roboter als Partner in der Bildung III.8.1.1 L2TOR19 L2TOR war ein vom „Horizon 2020 Programm“ der European Commission bis 2018 gefördertes Forschungsprojekt, das anstrebte, niederländische, deutsche und türkische Muttersprachler im Vorschulalter beim Erlernen von Englisch – und türkischen Muttersprachlern mit Migrationshintergrund beim Erlernen von Deutsch und Niederländisch – zu unterstützen. Der Roboter sollte sowohl in der Zielsprache als auch in der Muttersprache mit den vierjährigen Kindern interagieren. Diese verbale Interaktion sollte durch natürliche Gesten und Körpersprache unterstützt werden. Das Sozialverhalten des Roboter-Tutors war dabei an das von menschlichen Tutoren und Betreuern angepasst. Das Projekt zielte darauf ab, Richtlinien zu entwickeln, die das Design von zukünftigen Robotern und Tutorensystemen zur kommerziellen Nutzung unterstützen. Folgende fremdsprachliche Themen standen dabei im Vordergrund: • Zahlen und prä-mathematische Konzepte, • räumliche Sprache, z. B. Präpositionen, • Aneignung eines Grundwortschatzes durch Geschichtenerzählen. Für jedes Thema wurden drei Lektionen in spezifischer themenrelevanter Sprache definiert, die anschließend dem Kind beigebracht werden sollten. Dazu wurde der Roboter zusätzlich mit einem Tablet- PC ausgestattet. Ein zentrales Ergebnis des Projektes ist, dass der Roboter es schaffte, die Kinder zum Lernen zu motivieren und ihnen durchaus helfen konnte ihre Behaltensleistung beim Vokabellernen zu steigern. Ebenfalls wurde beobachtet, dass die menschenähnlichen Hand- und Arm- 19 L2TOR (gesprochen „el tutor“; Spanisch für Tutor/Lehrer/Betreuer mit L2 als Bezeichnung für die erste Fremdsprache, engl. Second Language Tutoring Using Social Robots) 104 Humanoide Roboter als Partner bewegungen des Roboters sich positiv auf den Lernvorgang auswirkten. Ziel ist es, den Roboter nun so weiterzuentwickeln, dass er sein Verhalten dem Gemütszustand und den Reaktionen der Kinder anpassen und zusätzlich jedem Kind einen, an die individuellen Lernfortschritte angepassten Sprachunterricht bieten kann. Das Projekt wurde als internationale Kooperation verschiedener Universitäten und Firmen ausgetragen. Beteiligt waren die Universität Bielefeld in Deutschland, die Tilburg Universität und die Universität Utrecht in den Niederlanden, die Koç Universität in der Türkei, die Plymouth Universität in England sowie QBMT Creative Solutions und SoftBank Robotics, die den Roboter NAO als Forschungsobjekt bereitstellten. III.8.1.2 Roboter an finnischen Grundschulen In der finnischen Stadt Tampere befinden sich zur Zeit fünf NAO- Roboter in verschiedenen Grundschulen im Test-Einsatz. Dort werden die humanoiden Roboter vor allem im Sprachunterricht eingesetzt und sollen Kindern beim Erlernen von Finnisch, Englisch und Deutsch unterstützen. Die Roboter sind mit einer Smartphone-App verknüpft und zusätzlich mit einem Tablet-PC ausgestattet. Die Idee des Projekts ist es, dass der Roboter für Abwechslung sorgen und so das Interesse der Kinder für den Unterrichtsstoff wecken soll. Dabei stellt der NAO-Roboter mit dem Namen „Elias“ keinen Ersatz für die menschlichen Lehrpersonen dar, sondern er dient lediglich als Unterstützung, da seine stets freundliche Art nicht für Ruhe im Klassenzimmer sorgen kann. Im Unterricht analysiert „Elias“ das Sprachniveau der Schüler und passt so individuell seine Fragen an. Zusätzlich kann er den Lehrern Rückmeldungen zum Wissensstand und zu Problemen der Schüler geben. Im Gegensatz zu einem Menschen hat „Elias“ den Vorteil, dass er nie die Geduld verliert und die Schüler nie in Verlegenheit bringt, [V.III.4] 105 Ausblick: Roboter als Partner in der Bildung wenn er Fragen stellt. Er kommuniziert auf Finnisch oder Englisch, er erkennt die Fähigkeiten der Schüler und passt die Fragen automatisch entsprechend an, wobei er dem Lehrer ein Feedback über mögliche Probleme gibt. III.8.2 Die Hochschullehre Eine andersgeartete Zielgruppe ist die der Hochschulstudenten, in deren Bildungskontexten NAO-Roboter, allein schon auf Grund ihrer geringen Größe als Partner eines menschlichen Lehrers eher nicht in Frage kommen. Als Werkzeug für die Realisierung digitaler Problemlösungsaufgaben allerdings spielt er eine wichtige Rolle (Kapitel V). Pepper-Roboter dagegen eignen sich gut für den Einsatz in einer Partnerkonstellation. Im Kontext der Hochschullehre mit ihren Bestandteilen Lehren, Lernen, Prüfen und Beraten sind dabei theoretisch folgende Einsatzmöglichkeiten denkbar: • Pepper als Inhaltsvermittler, z. B. in einer Vorlesung • Pepper als Nachhilfelehrer • Pepper als Berater, z. B. in Sprechstunden • Pepper als Prüfer • Pepper als Auskunftsgeber • Pepper als Organisator komplexer Abläufe Allerdings sind diese Einsatzoptionen in hohem Maße von den verwendeten Lehrorganisationsformen abhängig. Daher widmen wir uns im folgenden Kapitel zunächst den Grundprinzipien der modernen Lehre, ehe wir anschließend die heute schon realisierbaren Partneranwendungen vorstellen. Wie das funktionieren kann, soll in den folgenden Abschnitten auf der Basis der Erfahrungen des Roboter-Einsatzes in der Hochschullehre im Rahmen des Projekts H.E.A.R.T. beschrieben werden. 106 Humanoide Roboter als Partner Lektüreempfehlungen Breazeal, Cynthia. 2003. Toward sociable robots. Robotics and Autonomous Systems, 42(3–4), 167–175. Cooper, Martyn, Keating, David, Harwin, Wiliam & Dautenhahn, Kerstin. 1999. Robots in the classroom – tools for accessible education. In Assistive Technology on the Threshold of the New Millennium (S. 448–452), Assistive Technology Research Series, 6, Düsseldorf: IOS Press. Kwak, S. S. 2014. The Impact of the Robot Appearance Types on Social Interaction with a Robot and Service Evaluation of a Robot. Archives of Design Research, 27(2), 81–93. Lee, K. M., Peng, W., Jin, S. A., & Yan, C. 2006. Can robots manifest personality?: An empirical test of personality recognition, social responses, and social presence in human-robot interaction. Journal of Communication, 56(4), 754–772. Pal, S., & Singh, D. 2019. Chatbots and virtual assistant in Indian banks. Industrija, 47(4), 75–101. Sullins, J. P. 2012. Robots, love, and sex: The ethics of building a love machine. IEEE Transactions on Affective Computing, 3(4), 398–409. Fragen zur Vertiefung Welche der in diesem Kapitel behandelten Roboter-Mensch-Partner Beziehungen haben den größten Mehrwert für den Menschen? Warum lassen sich humanoide Roboter besonders gut im Pflegebereich einsetzen? Welche Vorteile bringt der Einsatz humanoider Roboter im Empfangsbereich einer Bank? 107 Ausblick: Roboter als Partner in der Bildung 109 IV Humanoide Roboter als Partner im Bildungsbereich Although the use of robots in educational settings is limited by technical and logistical challenges for now, it is highly likely that classrooms of the future will feature robots that assist a human teacher. [INT3] Das Angebot der für den Einsatz im Bildungsbereich verfügbarer Roboter reicht von Roboterbausätzen, wie LEGO-Mindstorms, über einfache humanoide Roboter bis hin zu Androiden und Geminoiden – Roboter, die von Menschen praktisch nicht zu unterscheiden sind. Beschränkt man sich auf einfache humanoide Roboter, dann lassen sich, wie bereits mehrfach erwähnt, zwei grundverschiedene Nutzungsarten herausarbeiten: die Nutzung humanoider Roboter als Partner im Lehrgeschehen und die Verwendung von humanoiden Robotern als Werkzeug zur Erlangung digitaler und kognitiver Kompetenzen. In diesem Kapitel konzentrieren wir uns auf die Partnerrolle, untersuchen ihre Anforderungen und Merkmale und geben Beispiele dafür, wie diese sozialen Roboterrollen in der Lehre des 21. Jahrhunderts angewandt werden. Viele der Rollen treten im Kontext der Kindererziehung in Erscheinung, und darauf hat sich bisher auch das Gros der meisten bisherigen Forschungsprojekte zum Einsatz humanoider Roboter in Bildungskontexten konzentriert. Gleichzeitig gibt es eine wachsende Zahl von Projekten, die darauf abzielen, Roboter in die Hochschulbildung zu integrieren. Wie das funktionieren kann, soll in den folgenden Abschnitten auf der Basis der Erfahrungen des Roboter-Einsatzes in der Hochschullehre im Rahmen des BMBF-geförderten Projekts H.E.A.R.T. beschrieben werden. IV.1 Die klassische Hochschullehre Ausgangspunkt für die Überlegungen zum Einsatz humanoider Roboter in der Lehre ist die klassische Vorlesung. Auch wenn der Vorlesung schon oft das Aus prophezeit wurde, ist sie immer noch ein Standardmodell der heutigen Hochschullehre. Und eines soll nicht vergessen werden: Je nach Fachrichtung beinhalten auch andere Veranstaltungsformen stets vorlesungsähnliche Elemente, die durch den Dozenten im Frontalvortrag präsentiert werden. Die klassische Lehre besteht aus zwei aufeinanderfolgenden Phasen: Phase 1: Inhaltsvermittlung durch einen menschlichen Dozenten in einem Hörsaal zu einer bestimmten Zeit in einem für alle Teilnehmer gleichen Lerntempo Phase 2: Inhaltsvertiefung (‚Hausaufgaben‘) entweder selbstgesteuert oder – wenn das Personal und die Mittel bereitstehen – mit tutorieller Begleitung. Abb. IV.1 stellt dieses Lehr-/Lernformat anhand einer einzelnen Lerneinheit, also einer Unterrichtseinheit bestehend aus z. B. 90-minütiger Inhaltsvermittlung im Hörsaal und einer anschließenden, in etwa 110 Humanoide Roboter als Partner im Bildungsbereich den gleichen Zeitaufwand umfassenden, selbstgesteuerten Inhaltsvertiefungsphase, vor. Phase 1: Vermittlung 2: Vertiefung20 Ziel Wissen Kompetenzen Steuerung Dozent unbegleitet/Tutorium Verortung Hörsaal keine Abb. IV.1: Das Gerüst der klassischen Hochschullehre (Lerneinheit) IV.1.1 Roboter in der klassische Hochschullehre In einem wie in Abb. IV.1 dargestellten klassischen Lehrformat, in dem eine frontale Inhaltsvermittlung die Basis der Lehrveranstaltung bildet, fallen weder umfangreiche digitale Daten an, noch bleibt Zeit für zusätzliche Aufgaben neben der eigentlichen Inhaltsvermittlung. Daher wäre die einzige Möglichkeit, humanoide Roboter für die Inhaltsvermittlung, also als Ersatz für den menschlichen Vortragenden, heranzuziehen. Doch genau das funktioniert derzeit nicht. Im Rahmen einer im Projekt H.E.A.R.T. angefertigten Studie konnte nachgewiesen werden, dass humanoide Roboter des Typs Pepper als Vortragende, egal in welcher Konfiguration, ungeeignet und dem menschlichen Vortragenden hoffnungslos unterlegen sind und somit für den Einsatz als Vortragende in einer klassischen Vorlesung zum jetzigen Zeitpunkt denkbar ungeeignet sind. Abb. IV.2 zeigt das Setup für diese Studie. 20 Der Begriff „Inhaltsvertiefung“ schließt den Transfer in Können und Tun, sowie das Erlernen praktischer Fähigkeiten im Sinne der Prozesskette Wissen, Können und Tun mit ein. 111 Die klassische Hochschullehre Abb. IV.2: Pepper als Inhaltsvermittler Ein Erfahrungsbericht Pepper als Inhaltsvermittler – funktioniert das? Diese Fragestellung wurde im Rahmen von H.E.A.R.T. untersucht. Dabei wurden die Präsentationsparameter des Roboters mehrfach variiert: mit bzw. ohne Körperanimationen, mit bzw. ohne Tablet-Einsatz. Das Ergebnis war eindeutig: So sehr sich Pepper auch ‚mühte‘, d. h. unabhängig vom Einsatz zusätzlicher Komponenten, der Durchdringungsgrad des präsentierten Inhaltes bei den Probanden blieb gleich. Und dem Vergleich mit einem menschlichen Inhaltsvermittler konnte Pepper ohnehin nicht standhalten. (Quelle: INT8) Humanoide Roboter kommen als Lehrerersatz somit derzeit nicht in Frage. Neben den allgemeinen sprachlichen Problemen (vgl. Abschnitt I.2.2.2) sind sie z. B. momentan nicht in der Lage, aus einer 112 Humanoide Roboter als Partner im Bildungsbereich Menge von Zuhörern, so wie wir Menschen das tun, zu fokussieren, zu filtern, und auch in ihren emotionalen Fähigkeiten wirken sie gerade in längeren Monologen auf die Dauer eher monoton als motivierend. Ob die für Inhaltsvermittlung benötigten Funktionen bei Androiden oder gar Geminoiden, wie denen der Professoren Ishiguro (Japan) oder Schärfe (Dänemark), besser umgesetzt werden können, ist bisher nicht untersucht worden. Als Fazit lässt sich daher schlussfolgern, dass humanoide Roboter für klassische Inhaltsvermittlungsszenarien derzeit ungeeignet sind. Doch wie sieht es in der zweiten Phase klassischer Lehr-/Lernszenarien aus? Lassen sich dort Roboter etwa zur Unterstützung verwenden? Auch hier ist die Antwort ein klares Nein. Zum einen hieße das, man müsste für jeden Lerner einen eigenen Roboter bereitstellen, was schon aus Kostengründen gar nicht vorstellbar wäre, zum anderen müsste der Roboter in der Lage sein, während der Inhaltsvertiefungsphase flexibel Hilfestellungen jedweder Art zu geben. Auch das ist derzeit völlig unrealistisch. Viele Fragen in dieser selbstgesteuerten Phase des Lernens und Vertiefens lassen sich momentan bestens per Web-Search über die eigenen mobilen Endgeräte lösen; da besteht für den Roboter-Einsatz kein Bedarf. Es sieht also nicht gut aus für den Roboter-Einsatz in der klassischen Lehre. Doch ist dieses Lehrmodell mit der orts- und zeitgebundenen Inhaltsvermittlung im Internet-Zeitalter überhaupt noch zielführend? Sollen sich potenzielle Einsatzszenarien für humanoide Roboter überhaupt an klassischen Lehrmodellen orientieren? Im Buch „Patient Hochschullehre“ hat der Autor dieses Buches eine Reihe von Defiziten der klassischen Hochschullehre identifiziert. Neben systemimmanenten Problemen, wie der nicht systematischen Ausbildung des Lehrpersonals zu Hochschullehrern und der daraus vielfach resultierenden schlechten Lehrqualität, sowie dem geringen Stellenwert der Lehre im Vergleich zur Forschung, sind dies u. a.: 113 Die klassische Hochschullehre • die bisherigen Verfahren der Qualitätssicherung, • die fehlende Transparenz der Lehrmaterialien, • die inhaltliche Quantitätssicherung von Kursen, • die schlechte Skalierbarkeit von Kursen, • die fehlende Nachhaltigkeit der Lehrmaterialien, • das Stundenplanproblem (‚Stundenplankollisionen‘), • das Zielgruppenproblem (auch Adaptivität genannt), • Raumprobleme. Zu diesen Problemen gesellen sich weitere Aspekte wie: • die veränderte Lebenssituation der Studenten im 21. Jahrhundert, • der neue Stellenwert des lebenslangen Lernens, • allgemeine Aspekte des gesellschaftlichen Wandels. Es ist also nicht der Roboter-Einsatz, der hinterfragt werden muss, sondern das Modell der klassischen Lehre vor dem Hintergrund neuer Möglichkeiten im 21. Jahrhundert. Warum sollten wir humanoide Roboter als Lehrerersatz in klassischen Lehrformaten einsetzen, wo doch die klassische Lehrerrolle im Internetzeitalter ohnehin in vielerlei Hinsicht fragwürdig geworden ist? Roboter als Lehrerersatz würden doch in die gleiche, mittlerweile überholte, Rolle eines menschlichen Inhaltsvermittlers schlüpfen müssen. Davor sollten wir sie bewahren – sie sollten nicht die Fehler menschlicher Lehrer als simple Wissensvermittler replizieren! Vielmehr benötigen wir ein anderes Lehrmodell, das die digitalen Optionen des Internets effizient nutzt und so die Defizite der klassischen Lehre überwindet. Ein solches Lehrmodell ist die digital-integrative Lehre. 114 Humanoide Roboter als Partner im Bildungsbereich IV.2 Die digitale Lehre21 Schauen wir uns zunächst einmal die Grundprinzipien der digitalen Lehre an. Ausgangspunkt für ein solches Lehrmodell ist eine vollständig digitalisierte Inhaltsvermittlungs- und -erschließungsphase mit einem Arsenal von digitalen Elementen, z. B. digitalen Texten, Animationen, Lehrvideos, gepaart mit digitalen Methoden und Werkzeugen, wie z. B. Kollaborationstools oder offenen Bildungsmaterialien. Daran schließt sich eine zweite Phase an, in der die Inhalte vertieft und fachspezifische Kompetenzen gemeinsam eingeübt werden können. Je nach Art dieser Vertiefungsphase kommen auch dort spezifische digitale Tools zum Einsatz. Abb. IV.3 schematisiert das Grundgerüst der digital-integrativen Lehre. Phase 1: Vermittlung 2: Vertiefung Ziel Wissen Kompetenzen Steuerung selbst begleitet Verortung Online Präsenz/Online Abb. IV.3: Das Gerüst der digitalen Hochschullehre (Lerneinheit) In der digital-integrativen Lehre bilden digitale Elemente und digitale Erschließungsmethoden das Rückgrat der selbstgesteuerten Inhaltsvermittlung und -erschließung. In der anschließenden Inhaltsvertiefungsphase, die je nach Erfordernissen in Präsenz mit dozentischer Begleitung, oder Online angeboten wird, werden gemeinsam fachspezifische Kompetenzen eingeübt, Recherchen durchgeführt oder vertiefende Fragestellungen behandelt. 21 Der Begriff „digitale Lehre“ wird oft als Kurzform für „digital-integrative“ Lehre verwendet, deren Grundprinzip eine völlige Integration digitaler Elemente und Methoden in die Phase der Wissensvermittlung ist. 115 Die digitale Lehre Ein solches Lernmodell setzt voraus, dass die Lerner die digitalen Inhalte vor Beginn der Phase der Inhaltsvertiefung pflichtbewusst bearbeiten. Doch genau diese Anforderung der Durchdringung des in Phase 1 angebotenen Stoffes vor der Inhaltsvertiefungsphase kann nicht vorausgesetzt werden. Zur Lösung dieses Kardinalproblems des digital-integrativen Lehrmodells können zwischen den einzelnen Lerneinheiten digitale Testszenarien zwischengeschaltet werden, in denen die Lerner ihren Wissensstand nachweisen können (engl. show mastery). Ein solches „Inverted Classroom Mastery Modell“ bringt nachweislich die gewünschten Effekte. Es hat die in Abbildung IV.4 dargestellte erweiterte Struktur. Phase 1a: Vermittlung 1b: Mastery 2: Vertiefung Inhalte Wissen Wissen Kompetenzen Steuerung selbst selbst begleitet Verortung Online Online Präsenz/Online Abb. IV.4: Das Inverted Classroom Mastery Modell (Lerneinheit) Über die Mastery-Komponente werden digitale Prüfungsformate bereitgestellt, mit denen die Studenten ihr Wissen vor der Inhaltsvertiefungsphase nachweisen können und dem akademischen Lernbetreuer ein Instrument an die Hand gegeben wird, das den Grad der Durchdringung der digitalen Inhalte anzeigt. Mit derartigen digitalen Lehr- und Lernszenarien lassen sich nicht nur viele Probleme der Hochschullehre lösen, sondern auch eine zeitgemäße, an die Lebenswirklichkeit der Lernenden angepasste, Qualität der Hochschullehre erreichen. Außerdem ist nun auch der Einsatz von humanoiden Robotern als neue Partner innerhalb des Lehr-/Lerngeschehens aber auch darüber hinaus möglich. 116 Humanoide Roboter als Partner im Bildungsbereich IV.2.1 Roboter in der digital-integrativen Lehre In einem digitalen Lehrmodell entstehen im Unterschied zu klassischen Lehr-/Lernformaten große digitale Datenmengen. Diese lassen sich auswerten, um Rückschlüsse auf allgemeine sowie individuelle Nutzungsabläufe zu erhalten. Darüber hinaus entsteht in den hochgradig kollaborativen Präsenzphasen ein hoher Betreuungsbedarf, der gerade bei höheren Teilnehmerzahlen einem einzelnen Lernbetreuer enorm viel abverlangt. Somit gibt es zwei Anknüpfungspunkte für den Einsatz computergestützter Methoden im Allgemeinen und humanoider Assistenzroboter im Besonderen. Abb. IV.5 stellt das digitale-integrative Lehr-/ Lernmodell mit diesen Anknüpfungspunkten für die Analyse digitaler Daten sowie den Robotereinsatz vor. Abb. IV.5: Das digital-integrative Lehr-/Lernmodel (erweitert) Aus diesem Modell lassen sich folgende zentrale Einsatzszenarien für humanoide Roboter als Partner ableiten: • Beratungsfunktionen, • Assistenzfunktionen, • Prüffunktionen. 117 Die digitale Lehre Diese Einsatzszenarien sollen in den folgenden Abschnitten im Detail beschrieben werden. IV.2.1.1 Humanoide Roboter als Berater Voraussetzung für die Nutzung humanoider Roboter als Berater sind belastbare und sichere Daten, die im Lernprozess entstehen. Viele Bildungsinstitutionen sehen ein großes Potenzial in der Analyse solcher Daten als Teil von proaktivem Feedback und prädiktiver Analytik. Es ist wichtig, die Leistungen der Lerner zu verstehen, damit die Institution und die Pädagogen besser auf ihre Lerner eingehen können. Dabei lassen sich drei Arten von Lerneranalysen (engl. „Learning- Analytics“) unterscheiden: • descriptive Learning-Analytics (Informationen über die zugrundeliegenden Daten), • predictive Learning-Analytics (Vorhersagen auf der Grundlage der aktuellen Daten), • prescriptive Learning-Analytics (Empfehlungen, was getan werden sollte). Zur Durchführung derartiger Lerneranalysen werden Daten benötigt, die wie erwähnt in den Selbstlern- und Assessment-Phasen des digital-integrativen Lehrmodells entstehen. Diese Daten stehen in den Datenbanken unserer Lernplattform, dem Virtual Linguistics Campus, der weltweit größten Lernplattform für sprachwissenschaftliche Inhalte, zur Verfügung. Dabei handelt es sich konkret um Kursbelegungen und Kursergebnisse, um Testergebnisse in einzelnen Lerneinheiten oder schlicht um Zugriffe auf Bearbeitungszeiträume von Online-Materialien. Aus diesen Daten lassen sich passgenaue Analysen erstellen und zur Lernerberatung heranziehen. Dabei stehen die deskriptive Ana- [V.IV.1] 118 Humanoide Roboter als Partner im Bildungsbereich Diese Einsatzszenarien sollen in den folgenden Abschnitten im Detail beschrieben werden. IV.2.1.1 Humanoide Roboter als Berater Voraussetzung für die Nutzung humanoider Roboter als Berater sind belastbare und sichere Daten, die im Lernprozess entstehen. Viele Bildungsinstitutionen sehen ein großes Potenzial in der Analyse solcher Daten als Teil von proaktivem Feedback und prädiktiver Analytik. Es ist wichtig, die Leistungen der Lerner zu verstehen, damit die Institution und die Pädagogen besser auf ihre Lerner eingehen können. Dabei lassen sich drei Arten von Lerneranalysen (engl. „Learning- Analytics“) unterscheiden: • descriptive Learning-Analytics (Informationen über die zugrundeliegenden Daten), • predictive Learning-Analytics (Vorhersagen auf der Grundlage der aktuellen Daten), • prescriptive Learning-Analytics (Empfehlungen, was getan werden sollte). Zur Durchführung derartiger Lerneranalysen werden Daten benötigt, die wie erwähnt in den Selbstlern- und Assessment-Phasen des digital-integrativen Lehrmodells entstehen. Diese Daten stehen in den Datenbanken unserer Lernplattform, dem Virtual Linguistics Campus, der weltweit größten Lernplattform für sprachwissenschaftliche Inhalte, zur Verfügung. Dabei handelt es sich konkret um Kursbelegungen und Kursergebnisse, um Testergebnisse in einzelnen Lerneinheiten oder schlicht um Zugriffe auf Bearbeitungszeiträume von Online-Materialien. Aus diesen Daten lassen sich passgenaue Analysen erstellen und zur Lernerberatung heranziehen. Dabei stehen die deskriptive Ana- [V.IV.1] lyse als Zustandsbeschreibung des Lernprozesses und die auf den aktuellen Daten beruhende Vorhersage derzeit im Vordergrund. Es ist denkbar, diese Daten „on screen“ in Form von Mensch-Maschine-Dialogen zu nutzen und die Beratung über reine Software-Lösungen, z. B. über Chatbots, vorzunehmen. Alternativ bieten sich humanoide Roboter für das ‚Lernergespräch‘ an. Genau dieser Ansatz wurde im Projekt H.E.A.R.T. gewählt und es wurde mit der „Student Advisor App“ eine Anwendung für Pepper-Roboter entwickelt, die Studenten in einer Art ‚Roboter-Sprechstunde‘ Rückmeldungen und Hilfsangebote zu ihrer Leistung in den Online-Inhalten der belegten Kurse gibt. Mittels Zugriff auf die dafür verwendete Lernplattform kann der Roboter individuell zugeschnittenes Feedback geben, die Studenten in Bezug auf ihre Lernleistung beraten und das Besprochene anschlie- ßend als Protokoll per E-Mail an die jeweiligen Studenten schicken. Für die Roboter-Sprechstunde gibt es zwei Modi: den nicht-personalisierten Modus, über den man im Gespräch mit dem Roboter allgemeine kursbezogene Daten abrufen kann, ohne sich persönlich ausweisen zu müssen und den personalisierten Modus, im Rahmen dessen man persönliche Informationen zum eigenen Lernerverhalten mit dem Roboter besprechen kann. Voraussetzung für beide Modi ist ein stabiler Internet-Zugang des Roboters über WLAN. Die Anmeldung zur persönlichen Roboter-Sprechstunde sollte idealerweise per Gesichtserkennung erfolgen. Leider ist die Gesichtserkennung auf dem verwendeten Robotertyp aber noch nicht zuverlässig genug, sodass es leicht zu Fehleinschätzungen kommen könnte. Stattdessen erfolgt die Kontaktaufnahme wie in Abb. IV.6 gezeigt über einen eindeutigen, maschinell lesbaren, für Menschen aber nicht verständlichen (und somit auch nicht zu fälschenden) Code, den sogenannten QR-Code (engl. Quick Response Code). Per Mausklick können sich die Studenten ihren individuellen QR-Code von der Lernplattform z. B. auf ihr Smartphone, laden und sich so beim Roboter identifizieren. 119 Die digitale Lehre Abb. IV.6: Anmeldung beim Roboter/Die Student Advisor App 120 Humanoide Roboter als Partner im Bildungsbereich In Sekundenschnelle bekommt der Roboter so Zugang zu den allgemeinen Kursdaten und den individuellen Lernerdaten und es entwickelt sich ein Beratungsgespräch, bei dem der Roboter die Initiative innehat. Das Gespräch mit dem Pepper-Roboter (hier „Yuki“) ist dialoggesteuert, bezieht aber zusätzlich die Möglichkeiten des Tablets mit ein, und gibt dem menschlichen Gesprächspartner so zusätzliche Optionen der Interaktion mit dem Roboter. Lerner-Roboter-Dialog in der Roboter-Sprechstunde Yuki: „Hallo Lisa, ich grüße Dich. Du arbeitest im Kurs ‚History of English‘ hervorragend mit.“ Lisa: „Hallo Yuki. Danke für das Lob. Hast Du auch etwas auszusetzen?“ Yuki: „Nicht viel. Allerdings solltest Du zur Sicherheit den zweiten Mastery Test zum Thema ‚Proto-Languages‘ nochmal wiederholen, um eine höhere Prozentzahl als die bisherigen 75% zu erreichen. Hast Du noch Fragen?“ Lisa: „Wann ist die Abschlussklausur?“ Yuki: „Am 14. Februar 2019 um 12 Uhr.“ Mit der „Student Advisor App“ erhalten studentische Kursteilnehmer nun im Rahmen von Roboter-Sprechstunden individuell zugeschnittenes Feedback zu ihrer Leistung in den von ihnen belegten Kursen. So können sie nicht nur bezüglich ihrer Lernleistung beraten werden, sondern sie erhalten wertvolle Tipps, bisweilen auch unangenehme Wahrheiten, die in einem Professor-Student-Gespräch möglicherweise nie ausgesprochen würden. Dass sie zusätzlich vom Roboter noch ein schriftliches Beratungsprotokoll per E-Mail erhalten, rundet die Robotersprechstunde ab.22 22 Details zur Student Advisor App: https://bit.ly/2GuM91z. 121 Die digitale Lehre Wie bereits erwähnt lässt sich das beschriebene Verfahren der „Learn ing-Analytics“ auch ohne Roboter-Unterstützung per Computer, z. B. über einfache textbasierte Dialogsysteme realisieren. Es hat sich aber in den studentischen Evaluationen der „Student Advisor App“ gezeigt, dass mit dem Roboter durch dessen Emotionalität, Geduld und auch Spaß eine persönliche Beziehung aufgebaut wird, die mit einem Computerbildschirm so nicht möglich ist. Die Robotersprechstunde kann somit schon heute als ein gelungenes Einsatzszenario für humanoide Roboter in der Hochschullehre gesehen werden. Voraussetzung für jedwede Form von Learning-Analytics, ob mit oder ohne Roboter-Einsatz ist allerdings die Möglichkeit der Nutzung von digitalen Lernerdaten. Da im deutschen Hochschulsystem solche Daten auf Grund des Festhaltens an klassischen Lehr-/Lernformaten zum einen gar nicht verfügbar sind, und da es zum zweiten kaum zu erwarten ist, dass auf Grund der sehr restriktiven Datenschutzbestimmungen entsprechende Daten aus den genutzten Lern-Management- Systemen bereitgestellt werden, ist ein flächendeckender Einsatz von Learning-Analytics zur Zeit nicht zu erwarten. IV.2.1.2 Humanoide Roboter als Assistenten Auch im physikalischen Lernraum (Seminarraum, Klassenzimmer) können humanoide Roboter schon heute wichtige Funktionen übernehmen. So können Pepper-Roboter bis zu einem gewissen Grad als Assistenten in der Präsenz-/Inhaltsvertiefungsphase digitaler Lehr-/ Lernszenarien fungieren. Sie können dort u. a. • Aufgaben stellen, • Evaluationen entgegennehmen, • Kontrollfragen präsentieren und auswerten, • Überwachungsfunktionen übernehmen. 122 Humanoide Roboter als Partner im Bildungsbereich Ein solches Einsatzszenario ist die Steuerung sogenannter Live- Voting Systeme und die damit verbundene Entlastung menschlicher Lernbegleiter. Anstatt über einen mitgebrachten Laptop Fragenpakete über Live-Voting-Systeme wie Pingo, uREPLY, Kahoot, Mentimeter, um nur einige zu nennen, abzurufen und zu kontrollieren, kann man diese Aufgabe getrost einem Roboter überlassen, der nach Aktivierung einer entsprechenden Anwendung über ein Codewort oder durch Betätigung eines Sensors das komplette Fragenpaket automatisch abarbeitet.23 Mit einer solchen „Voting Controller App“ übernimmt der Roboter die Rolle des Fragenstellers in einem Audience-Response System. Er generiert aus einer Plattform, z. B.  von der frei zugänglichen Plattform für das Pingo-System24, dort vordefinierte Fragen und präsentiert sie dem Publikum, das die Fragen mit Hilfe internetfähiger Mobilgeräte beantworten kann. Sowohl die Fragen als auch die Ergebnisse zeigt der Roboter auf seinem Tablet an; zusätzlich behält er die Fragezeit im Auge und unterstützt den Ablauf mit erklärenden gesprochenen Kommentaren. 23 Details zur Voting Controller App: https://www.project-heart.de/research/applikationen/voting-controller-app/. 24 Pingo ist ein frei verfügbares Live-Voting-System, das ursprünglich an der Universität Paderborn entwickelt wurde: https://pingo.coactum.de/. 123 Die digitale Lehre Voraussetzung für diese App ist eine stabile Internetverbindung für den Roboter, sodass er das Live-Voting ortsunabhängig vornehmen kann: im Hörsaal, auf Fachtagungen, im Rahmen von Präsentationen etc. Soll die App vor einem großen Publikum genutzt werden, empfiehlt sich die Übertragung der Inhalte des Tablets per Daten-Projektor auf einen größeren Bildschirm bzw. auf eine Leinwand, um so die Fragen und Kommentare auch einem größeren Publikum anzeigen zu können. Das lässt sich mit Hilfe eines Screen-Sharing Verfahrens über einen Laptop mit einem Localhost für Pepper-Roboter der Version 2.5 bzw. über entsprechende Android-Verbindungen für Pepper-Roboter der Version 2.9 gewährleisten Der Mehrwert der Nutzung eines humanoiden Roboters in einem Live-Voting Szenario ist die Vereinfachung der Bedienung, wahlweise im Dialog oder per Roboter-Front-End, sowie die während eines Abstimmungsvorganges vom Roboter sprachlich/emotional unterstützten Hinweise zur Frage und zum zeitlichen Ablauf. Abgesehen von der großen Erleichterung für die Lernbegleiter ist es wiederum die Emotionalität, mit der ein Roboter wie Pepper eine solche Fragerunde begleitet und administriert, die den Gewinn dieser Anwendung bildet. Allerdings, und das muss hier konstatiert werden, ist der zeitliche Anteil des Live-Voting im Präsenzgeschehen nur sehr gering, sodass die Aufwand-Nutzen-Bilanz kritisch hinterfragt werden sollte. Genau das wurde im Projekt H.E.A.R.T. getan und als Resultat dieser Überlegungen die sogenannten „Classroom Application Packages“ geschaffen (siehe Abschnitt IV.2.2) Ein zweites Einsatzgebiet für Pepper-Roboter als Assistenten im Präsenzgeschehen nutzt die Möglichkeit, vorgefertigte Inhalte zu präsentieren. Auch wenn humanoide Roboter, wie in Abschnitt IV.1.1 erläutert, menschliche Lehrer nicht ersetzen können – und in digitalintegrativen Lehrmodellen die klassische Lehrerrolle ohnehin nicht 124 Humanoide Roboter als Partner im Bildungsbereich mehr benötigt wird, besteht dennoch die Option oder der Wunsch, dass der Roboter zu ausgewählten Spezialthemen Informationen bereithält und diese vorgefertigte Themen mit der ihm eigenen Emotionalität und dauerhaften Freundlichkeit vortragen kann.25 Die zu diesem Zweck entwickelte Anwendung ist die „(Co)-Presenter App“. Diese Anwendung bezieht die Erfahrungen früherer Untersuchungen im Projekt H.E.A.R.T. mit ein, um die Frage zu beantworten, ob sich humanoide Roboter nicht doch für die Präsentation kurzer, punktuell erforderlicher Inhalte eignen. Dabei sollen von Pepper rein mündlich vorgetragene Informationen, Kombinationen aus Bild und Wort, sowie video-gestützte Präsentationen bereitgehalten werden und von den Studenten bei Bedarf im Dialog mit dem Roboter im Präsenzgeschehen abgerufen werden können. Eine besondere Variante dieser Anwendung entsteht, wenn sich mehrere Roboter im gleichen Lernraum befinden und als „Collaborative-Presenter“ fungieren. Es ist geplant, mit den beiden Pepper-Robotern des Projekts H.E.A.R.T., „Pepper“ und „Yuki“ derartige kollaborative inhaltliche Präsentationen den Lernern im Seminarraum anzubieten und zu evaluieren. Der Roboter wird in derartigen Einsatzszenarien somit nicht zum Lehrerersatz sondern zu einem zusätzlichen, hochspezialisierten Auskunftssystem, das bei Bedarf genutzt werden kann und die gewünschten Informationen interaktiv und multimedial anbietet. Eine weitere, aber völlig anders ausgerichtete, Einsatzmöglichkeit des Pepper-Roboters als Partner im Präsenzgeschehen nutzt dessen Möglichkeit, sich über seine optischen Sensoren ein Bild über die Aktivitäten der Kursteilnehmer während der Präsenzphase zu verschaffen. 25 In Abschnitt V.6.3.2 zeigen wir, wie dieser Einsatzbereich zusätzlich auch die Werkzeugfunktion eines Roboters nutzen kann. 125 Die digitale Lehre Abb. IV.7: Die „Attention-App“ im Einsatz (Robotersicht) Über seine Kameras scannt er dabei die Anwesenden und protokolliert deren individuellen Aufmerksamkeitsgrad. Je nach Körperhaltung, Blick, Gesichtsausdruck, projiziert der Roboter dabei ein Aufmerksamkeitsniveau von 0 (keine Aufmerksamkeit) bis 10 (volle Aufmerksamkeit) auf die einzelnen Anwesenden. Abb. IV.7 zeigt die ‚Robotersicht‘ mit den auf die sieben Anwesenden projizierten Aufmerksamkeitswerten in einem Labor-Setting (grün = aufmerksam, rot = weniger aufmerksam). Diese „Attention-App“, die an der Universität der Vereinigten Arabischen Emirate in Al Ain, vom Team um den Robotik-Experten Fady Al-Najjar entwickelt wurde, ist zwar noch im Entwicklungsstadium und kann nur eine begrenzte und schematisch angeordnete Teilnehmerzahl entsprechend bewerten, sie zeigt aber, welche Möglichkeiten schon heute entstehen können. Zwar könnte eine solche Anwendung im Prinzip auch ohne Roboter eingesetzt werden (dies wäre z. B. mit einem Satz Kameras und einer entsprechenden Software ebenfalls möglich), doch gibt es wiederum die typischen Mehrwerte, die sich auf das soziale Erscheinungsbild des Roboters beziehen und ihn zum glaubwür- 126 Humanoide Roboter als Partner im Bildungsbereich digen Partner werden lassen kann, dem man auch ernste Kommentare wie „Du solltest Dein Handy zur Seite legen und aufpassen!“ problemlos abnimmt. Der Dauereinsatz solcher Roboter-gestützten „Attention- Apps“ wird daher vermutlich nicht mehr lange auf sich warten lassen. IV.2.1.3 Humanoide Roboter als Prüfer In der Präsenzphase, in der ja ein menschlicher Lernbegleiter die didaktischen Fäden in der Hand hält, erhalten humanoide Roboter durch die neuen Möglichkeiten der Interaktion mit Menschen eine immer wichtiger werdende Rolle. Sie können nicht nur allgemeine Assistenzfunktionen übernehmen, sondern sie können trotz ihrer zur Zeit immer noch eingeschränkten Dialogfähigkeit durchaus Hilfestellungen geben, tutorielle Dialoge führen, Erklärungen geben und sogar einfache Aufgaben stellen und korrigieren. Sie können somit die Rolle eines Prüfers (engl. examiner) übernehmen. Dabei gibt es zwei zentrale Einsatzmöglichkeiten für humanoide Roboter als Partner in Prüfkontexten. Die eine bezieht sich auf die Präsenzphase, in der Roboter der Lernbegleitung durch Übernahme von Prüfaufgaben neue Freiräume zur individuellen Beratung verschaffen, die zweite auf Individualprüfungen. Moderne Prüfungsszenarien In modernen, digital-integrativen Lehrszenarien gibt es zwei digitale Prüfungsoptionen: reine Wissenstests in den digitalen Inhaltsvermittlungs- und in den Mastery-Komponenten (vgl. Abb. IV.5, S. 117) und kompetenzorientierte Prüfungen als summative Tests am Ende eines Kurses. Bei den Wissenstests steht das reine Abfragen im Vordergrund, während die kompetenz-orientierten Tests komplexe Fragestellungen vorsehen, die nicht ohne Anwendung und Transfer des vorhandenen Wissens beantwortbar sind. Hier sind zwei Beispiele aus der Phonetik: 127 Die digitale Lehre Beispiel 1 (Wissensabfrage): Welches ist der Artikulationsort von [n]? (Antwort: alveolar/alveolar ridge) Beispiel 2 (kompetenz-orientierte Frage): Wieviele Konsonanten enthält das Wort „knowing“? (Antwort: 2) Beide Fragetypen lassen sich problemlos digital auswerten. Zur Übernahme von Prüferaufgaben wurden die Pepp er-Rob oter des Projekts H.E.A.R.T. mit der sog. „Quizmaster App“ ausgestattet, die seit 2018 im normalen Lehr- und Prüfungsbetrieb linguistischer Lehrveranstaltungen an der Universität Marburg erprobt wurde. Dabei wurden zwei Quiz-Modi entwickelt. In der Oneto-Many-Variante veranstaltet der Roboter das Quiz mit einer größeren Gruppe, im One-to-One-Modus findet eine Einzelprüfung statt. 128 Humanoide Roboter als Partner im Bildungsbereich In beiden Fällen stellt der Roboter ausschließlich kompetenz-orientierte und damit zeitaufwändige Fragen. Über WLAN erhält er dazu Zugang zu den Datenbanken des VLC, um von dort die Fragen abzurufen und in vorher definierte Testformate (Auswahlübungen, Freitextformate, Zählübungen etc.) einzupassen. Per Dialog mit dem Roboter oder per Interaktion mit dem Tablet wird das Quiz-Menü durch den menschlichen Lernbegleiter gestartet. Anschließend werden noch einige zentrale Parameter gesetzt (Fragenanzahl, Zeit pro Frage, Fragetyp, Anzeige der Lösung etc.), den Rest, inklusive der Angaben zur verstrichenen Zeit bei den Fragen erledigt danach der Roboter autonom. Im nun beginnenden Quiz werden die Fragen nacheinander präsentiert und von den Kursteilnehmern durchgearbeitet, beantwortet und protokolliert. Wenn alle Fragen durchlaufen sind, können die Lösungen vom Roboter abgerufen werden. Das geschieht entweder im Dialog oder über die Interaktion mit dem Tablet. Zusätzlich gibt der Roboter Erklärungen zu den Lösungen und zu den Lösungswegen. Abb. IV.8 zeigt den Pepper-Roboter „Yuki“ im Quizmaster-Modus im Seminarraum. Hauptziel der One-to-Many-Variante der „Quizmaster App“ ist die Vorbereitung von Teilnehmern einer Lehrveranstaltung auf ihre Prüfungen. Dazu werden – komplett über den Roboter gesteuert – potenzielle Prüfungsfragen aus den Datenbanken des VLC ‚gezogen‘ und so den zukünftigen Prüflingen die Gelegenheit gegeben, sich mit echten Prüfungsfragen auf die Abschlussklausur vorzubereiten und sich bei Bedarf vom Lernbegleiter während dieser simulierten Prüfungssituation helfen zu lassen, da dieser nun nahezu vollständig von der Durchführung des Quizzes entlastet wird. Im One-to-One-Modus kann der menschliche Prüfling im Individualmodus Antworten im Dialog liefern oder auch direkt über das Tablet eingeben. Der Roboter wertet die Antworten anschließend direkt aus und liefert am Ende einen Testbericht über die Leistung des Prüflings. Ziel der One-to-One Variante ist es somit, menschliche Prüfer von Individualprüfungen befreien. 129 Die digitale Lehre Abb. IV.8: „Yuki“ im Quizmaster-Modus Abb. IV.9: Individualprüfung mit „Yuki“ Solche Prüfungen werden immer dann notwendig, wenn Studenten Nachtests ablegen müssen, z. B. um extern erlangte Zertifikate nachzuweisen oder bei Zusatzprüfungen beim Fach- oder Studiengangwechsel. Hier kann der Roboter-Einsatz den Prüfungsdruck erheb- 130 Humanoide Roboter als Partner im Bildungsbereich lich mindern. Abb. IV.9 zeigt diese Variante bei der Durchführung eines Phonetik-Tests im Einsatz. IV.2.2 Classroom Application Packages Bei den Anwendungen, mit denen Pepper-Roboter im Präsenzgeschehen eingesetzt werden (z. B. bei der Quizmaster App), konnten durchaus signifikante Mehrwerte festgestellt werden. Diese beziehen sich auf die Emotionalität des Roboters und die dadurch möglich werdenden Bindungen zwischen den Studenten im Seminarraum und dem Roboter, sowie auf Erleichterungen beim Einsatz von Seminarraumtechnik, wie z. B. beim Live-Voting. Der Aufwand für derartige Roboter-Anwendungen allerdings ist enorm. Neben den allgemeinen logistischen Problemen (Transport, Audio-Verstärkung, Positionierung des Roboters) schmälern die immer noch eingeschränkten Möglichkeiten bei der Dialogführung den Wert solcher Einsatzszenarien. Aus diesem Grunde hat sich das Team-H.E.A.R.T., also der Autor und die Co-Autoren dieses Buches, dazu entschlossen die einzelnen Apps zu komplexeren Paketen zu bündeln, um den ‚Kosten‘-Nutzen- Effekt zu erhöhen. Die Idee ist folgende: Der Roboter übernimmt für einen längeren Zeitraum (damit es sich lohnt, mindestens für zwanzig Minuten) die technisch-inhaltliche Kontrolle über das Präsenzgeschehen, nimmt dem Lernbetreuer die gesamte Medienarbeit ab und schafft so weitere Freiräume zur Betreuung der Kursteilnehmer im Präsenzgeschehen. Das Resultat dieser Überlegungen ist die „Classroom Application Package“ (CAP). Eine CAP bündelt verschiedene Präsenzaktivitäten, z. B.: • das Stellen und Auswerten von Fragen per Live-Voting, • das Stellen von Recherche-Aufgaben, • die Einbindung zusätzlicher Kontrollfragen, 131 Die digitale Lehre • die Anzeige und Besprechung von Muster-Lösungen, • die zeitliche Kontrolle über alle Aktivitäten. Sämtliche Aktionen des Roboters werden dabei den Teilnehmern am Präsenzgeschehen auf deren mobilen Endgeräten angezeigt. Der Roboter übernimmt somit neben den inhaltlichen Optionen (Fragen, Hinweise, Lösungen) auch alle organisatorischen und technischen Aktivitäten, steuert entstehende Interaktionen möglichst emotional und ermöglicht dem menschlichen Lernbegleiter Zeit für eine intensivere und hochgradig individualisierte Betreuung seiner Lerner. Die Vorbereitung einer CAP ist einfach: Über ein Front-End wird ein zu Grunde liegendes App-Template mit den gewünschten Aktivitäten, die der Roboter ausführen soll, bespielt, auf den Roboter geladen und im Seminarraum über Sensoren, gesprochene Trigger oder über das eigene Smartphone vom Lernbegleiter aktiviert. Danach agiert der Roboter während der vordefinierten Zeit autonom und arbeitet das vorbereitete Programm ab. Ein CAP-Template • Begrüßung • Live-Voting zur Kontrolle des Vorwissens • Aufgabe 1 – Tipp 1 – Kontrollfrage 1 • … • Aufgabe n – Tipp n – Kontrollfrage n • Abschlussquiz • Verabschiedung Grundlage für den Einsatz einer CAP ist das Vorhandensein eines geeigneten LMS (Learning Management System), mit dem sich der Roboter per WLAN verbinden kann, und auf das die Nutzer mit ihren mobilen Geräten frei zugreifen können. Ein solches LMS ist die Plattform uREPLY der Chinese University of Hongkong. uREPLY 132 Humanoide Roboter als Partner im Bildungsbereich ermöglicht es dem Roboter, über diese Plattform Fragen zu stellen oder Aufgaben zu verteilen, während die Studenten die Fragen auf ihren mobilen Geräten einsehen, individuell beantworten und z. T. auch bearbeiten können. Dies ermöglicht es dem Roboter auch, das Verhältnis von richtigen und falschen Antworten in Echtzeit zu berechnen und seine Aussagen entsprechend der Klassenleistung anzupassen. Wenn z. B. die Mehrheit der Teilnehmer richtig geantwortet hat, lobt der Roboter, ansonsten motiviert er die Anwesenden, sich zu verbessern und härter zu arbeiten. Geplant ist, gemäß dem Trend der Antworten der Gruppe, Zusatzfragen bereitzuhalten und bei Bedarf durch Interaktion mit dem Roboter abzurufen. Hier ist ein typisches Ablaufszenario einer linguistischen CAP für die uREPLY-Plattform (in englischer Sprache) mit jeweils einer von mehreren Roboter-Aktionen als Beispiel: Bekanntgabe der Session ID: Please make sure you are all on ureply.mobi. Today’s ID is R9256. I repeat … R9256. Begrüßung: Welcome to the morphology and syntax class. Since we have met before, we can start without any further delay. I will first ask you some questions, then we will analyze a text in various ways, and as usual I will check your analysis with a control question. 133 Die digitale Lehre Live-Voting: Wissensfrage 1 (60 Sekunden): Which of the following items is an „Acronym“? NATO, OECD, IBM, BREXIT, RoboPraX, YUKI Pause, Zeit für den Lernbetreuer für Kommentare etc. < Beginn des zentralen Bereichs > Aufgabe 1 von n ( jeweils 5 bis 10 Minuten): Please analyze the following text morphologically. Calculate the degree of synthesis, work out all derivates and find out which words underwent morpho-graphemic changes. Behind Winston’s back the voice from the visualizer was still babbling away about pig-iron and the overfulfilment of the Ninth Three- Year Plan. The telescreen received and transmitted simultaneously. Optionaler Tipp zur Lösung, z. B. nach 5 Minuten: Telescreen is not a derivative and it counts as one element since it is also not inflected. Kontrollfrage: Type in a word that exhibits consonantal doubling. 134 Humanoide Roboter als Partner im Bildungsbereich Lösung der Gesamtaufgabe: The degree of synthesis is 1.2 and here are the derivatives: visualizer, overfulfilment, ninth, simultaneously. Verabschiedung: Thanks for working with me and see you soon. Auf dem mobilen Endgerät, z. B. auf einem Smartphone, stellen sich die einzelnen CAP-Bestandteile wie in Abb. IV.10 ausschnittsweise gezeigt dar. Wissensfrage 1 Aufgabe 1 Kontrollfrage Abb. IV.10: Bestandteile einer CAP auf dem Smartphone Wichtig für den Einsatz einer CAP im Präsenzgeschehen ist eine geeignete Position des Roboters im Seminarraum, die allen Teilnehmern 135 Die digitale Lehre Blickkontakt mit dem Roboter gestattet, ggf. die Verstärkung der Roboterstimme, um die Anweisungen des Roboters auch bei größeren Gruppen hören zu können. Die Bewegung des Roboters durch den Seminarraum ist nicht notwendig und derzeit auch nur schwierig per Vor-Kartographierung realisierbar. Abb. IV.11 zeigt die typische Position des Pepper-Roboters „Yuki“ im Seminarraum beim Einsatz einer CAP vor ca. 20 Studenten. Dabei ist denkbar, den Roboter zusätzlich mit einer auf der „Attention-App“ basierenden Funktion auszustatten, um so zusätzlich die Aufmerksamkeit der Lerner im Auge zu behalten (siehe Abschnitt IV.2.1.2, S. 126). Abb. IV.11: „Yuki“ im Seminarraum beim Einsatz einer CAP Der Einsatz von CAPs hat folgende signifikante Vorteile: 1. Zugänglichkeit Alle Inhalte, Kommentare und Aufgaben, die der Roboter im Rahmen einer CAP präsentiert, sind für die Teilnehmer nicht nur hörbar sondern auch auf den mobilen Endgeräten sichtbar und können so bis in letzte Detail nachvollzogen werden. 136 Humanoide Roboter als Partner im Bildungsbereich 2. Verlässlichkeit bei gleichzeitiger Flexibilität Durch die Vorab-Definition aller Inhalte übernimmt der Roboter zuverlässig die inhaltliche Kontrolle: Er hält sich an die vorbereitete inhaltliche Konzeption und vergisst, überspringt oder erweitert Aufgaben oder Fragen nicht (es sei denn, der Lernbetreuer hat absichtlich Änderungen während des Unterrichts und somit während der CAP- Laufzeit vorgenommen). 3. Interaktivität Durch die Verwendung des eigenen mobilen Geräts ist jeder Lerner beteiligt und nicht nur derjenige, der den Arm angehoben hat oder derjenige, auf den der Lernbegleiter reagiert. So entsteht die Möglichkeit, der individuellen Einflussnahme bei gleichzeitiger Möglichkeit zu mehr Diskussion und damit mehr Zusammenarbeit. 4. Individualisierung Das höhere Niveau der Interaktion zwischen den Lernern sowie dem Roboter und die Übernahme verschiedener, bisher dem Lernbegleiter obliegenden Aktivitäten, führt letztlich dazu, dass Zeit gewonnen wird, die für die individuelle Unterstützung der Lerner durch den Lernbegleiter genutzt werden kann. Pepper als Virtueller Präsenzersatz Der Einsatz von CAPs ist auch ohne Präsenz des Roboters im Seminarraum denkbar. Dazu wird der Roboter zu einem vorab festgelegten Termin vom Büro des Lernbegleiters aus per Kamera live ins Internet ‚gestreamt‘ (z. B. über YouTube) und spult dann seine CAP ab. Die Teilnehmer werden vorab über den Zeitpunkt informiert. Sie erhalten über den Live-Stream die Session-ID und können anschlie- ßend über ihre digitalen Geräte (Smartphone. Laptop, Deskop PC) alle Aktionen und Fragestellungen, die Teil der CAP sind, einsehen und bearbeiten. 137 Die digitale Lehre Auf diese Weise können Aufgaben zuverlässig an ein Zielpublikum gebracht werden, ohne dass ein menschlicher Lernbetreuer involviert ist. Lediglich der Start der CAP und somit die Aktivierung des Roboters müssen beaufsichtigt werden. Diese zusätzliche Möglichkeit der Aufgabenstellung in Zeiten, in denen die Präsenzlehre unmöglich ist, wird gegenwärtig im Rahmen des Projekts H.E.A.R.T. intensiv erprobt. Somit fördern CAPs zusammen mit den Vorteilen der digital-integrativen Lehre nicht nur das Engagement der Teilnehmer an den ‚neuen‘, kompetenzorientierten Präsenzphasen, sondern sie ermöglichen den Lernbegleitern ein bisher nicht gekanntes Niveau der individuellen Lernbetreuung. Über diese Vorteile hinaus entsteht ein hoher Nachhaltigkeitseffekt: Da alle CAPs isolierte Module sind, lässt sich so eine CAP-Sammlung zu bestimmten Themen aufbauen, die dann flexibel ins Präsenzgeschehen eingebunden werden können. Derzeit gibt es solche CAP-‚Module‘ für die Linguistik, die Zahnmedizin, die Erziehungswissenschaften und für Messen und Demo-Einsätze. Allerdings muss bei all diesen Vorteilen konzediert werden, dass der derzeitige Hype um humanoide Roboter und somit Aspekte des Edutainment möglicherweise immer noch zu den genannten Mehrwerten beitragen. Dennoch, mit der CAP ist somit ein erster ‚Use Case‘ für den Einsatz von Pepper-Robotern in der Hochschullehre geschaffen worden. IV.3 Zusammenfassung und Lektüreempfehlungen Zusammenfassend lässt sich festhalten: In der klassischen Lehre gibt es keine Verwendung von Robotern, außer der Zurschaustellung. Digitale Daten fallen nicht an, also entfallen auch Learning-Analytics Ansätze. Solange also die Hochschullehre wie bisher auf klassische [V.IV.2] 138 Humanoide Roboter als Partner im Bildungsbereich Lehrformate setzt, müssen wir über KI und Assistenzrobotik in der Bildung nicht reden. In der digitalen Lehre dagegen gibt es zwei zentrale Ansatzpunkte: Die digitalen Lernerdaten für die Roboter-gestützte Beratung und die Assistenz in den vertiefenden Präsenzphasen durch komplexe Roboter-Apps, die sogenannten Classroom Application Packages. Die uREPLY Classroom Application Package und die „Student Advisor App“ sind die ersten ‚Use Cases‘, die genau diese Fähigkeiten von Pepper ausnutzen und ihn so zielführend und gewinnbringend ins moderne Lehr- und Lerngeschehen integrieren. Lektüreempfehlungen Bainbridge, W. A., Hart, J. W., Kim, E. S., & Scassellati, B. 2011. The benefits of interactions with physically present robots over videodisplayed agents. International Journal of Social Robotics, 3, 41–52. Belpaeme, T., Kennedy, J., Ramachandran, A., Scassellati, B., & Tanaka, F. 2018. Social robots for education: A review. Science Robotics, 3(21), 1–10. Bushweiler, Kevin. 2020. Teachers, the Robots Are Coming. But That’s Not a Bad Thing. EducationWeek, January 7,2020. https:// bit.ly/2WtkJBj; Zugriff 21.3.2020. Fernández-Llamas, C., Conde, M. A., Rodríguez-Lera, F. J., Rodríguez- Sedano, F. J., & García, F. 2018. May I teach you? Students’ behavior when lectured by robotic vs. human teachers. Computers in Human Behavior, 80, 460–469. Handke, Jürgen. 2014. Patient Hochschullehre. Marburg: Tectum Verlag. Handke, Jürgen. 2014b. The Inverted Classroom Mastery Model – A Diary Study. In: Eva Großkurth/Jürgen Handke (Hrsg.).The Inverted Classroom Model. Konferenzband zur 3. ICM Fachtagung in Marburg 2013. München: Oldenbourg Verlag: 15–35. 139 Zusammenfassung und Lektüreempfehlungen Handke, Jürgen. 2020. Handbuch Hochschullehre Digital. Baden- Baden: Nomos Verlag. 3. Auflage. Handke, Jürgen/Heinsch, Patrick. 2020. Humanoid Robots in Digital Teaching and Learning. In: Journal on Excellence in College Teaching. Miami University. Oxford Ohio. (erscheint) Keller, Birte/Baleis, Janine/Starke, Christopher/Marcinkowski, Frank. 2020. Machine Learning and Artificial Intelligence in Higher Education: A State-of-the-Art Report on the German University Landscape. (erscheint, zur Zeit: Heinrich-Heine-Universität Düsseldorf). Kennedy, J., Baxter, P., & Belpaeme, T. 2015a. Comparing Robot Embodiments in a Guided Discovery Learning Interaction with Children. International Journal of Social Robotics, 7(2), 293–308. Wannemacher, Klaus und Mitarbeiterinnen. 2016. Digitale Lernszenarien im Hochschulbereich. Hochschulforum Digitalisierung, Arbeitspapier #15. Fragen zur Vertiefung Welche technischen Herausforderungen entstehen im Klassenzimmer des 21. Jahrhunderts? Was ist die primäre Motivation für die Entwicklung von „Classroom Application Packages“? Welche Voraussetzungen müssen erfüllt sein, damit Learning- Analytics an deutschen Bildungsinstitutionen durchgeführt werden können? 140 Humanoide Roboter als Partner im Bildungsbereich 141 V Humanoide Roboter als Werkzeug Ultimately, the key question will be „are the teachers of today ready to develop the leaders we will need tomorrow?“ A difficult question, to be sure, and the answer today is no. Allen. J.R. 2019 [INT4] Seit den 1970er Jahren bauen und programmieren Lerner Roboter, um durch aktive Erfahrung ein Verständnis der technischen Konzepte in einer modernen Welt zu entwickeln. Die Roboter sind also Werkzeuge bzw. Lernmittel, und die Lerner arbeiten an ihnen, um die gewünschten Lernergebnisse zu erreichen. Dieser Ansatz hat seinen Ursprung im Konstruktivismus. Roboter werden dabei eingesetzt, um die Lerner zum Entwerfen, Bauen und Programmieren einzuladen und dabei ihre Ansichten, ihr Wissen und ihre Fähigkeiten zu allem, was sich aus der Tätigkeit des Entwerfens ergibt, zu verändern. Es handelt sich um einen Learning-by-Doing-Ansatz, der sich soweit wie möglich vom traditionellen Unterricht entfernt. Nicht nur durch Übungen, sondern dadurch, dass man ein Problem aktiv und vorzugsweise in einer Gruppe anpackt und durch mehrere Iterationen zu einer Lösung kommt, indem man lernt, wie man vorankommt. Ein Unterrichtsszenario mit der entsprechenden Ausstattung nennt man daher „Maker-Space“ (dt. in etwa „offene Werkstatt“). In derartigen Räumen werden Lerner in die Lage versetzt, ihre eigenen Problemlösungsstrategien zu analysieren und in möglichst detaillierte Handlungsvorschriften oder Algorithmen zu überführen. V.1 Algorithmisches Denken Wird ein Mensch vor ein Handlungsproblem gestellt, macht er sich in der Regel nur wenige Gedanken über die dazu notwendige Problemlösung. Er führt die Handlung ohne große Reflektion über die Teilschritte, die zur Lösung des Problems beschritten werden müssen, aus. Folgendes Problem soll diese Herangehensweise illustrieren: Stellen Sie sich vor, Sie stehen vor einer verschlossenen Tür und wollen in den Raum hinter der Tür gelangen. Was ist zu tun? Die meisten Menschen würden hier ungefähr so antworten: Ich drücke die Klinke nach unten, schiebe die Tür einen Spalt auf und gehe hindurch. Ein solcher Algorithmus löst zwar das Problem, geht aber nicht auf mögliche Einzelheiten ein. Er definiert weder Anfangs- noch Endpunkt der Handlung, er enthält keine Distanz- oder Winkelangaben, er ist eher eine stark vereinfachte Beschreibung des Vorganges.26 Für einen Roboter wäre dieser Algorithmus wenig hilfreich. Ohne genaue Distanz-, Höhen- und Winkelangaben, dazu noch ohne präzise Angaben zur Betätigung der Türklinke und der Größe des notwendigen Türspaltes wäre kein Roboter in der Lage das Problem „Tür Öffnen“ auch nur ansatzweise zu lösen. Erst eine sehr in die Details gehende Handlungsvorschrift, die jeden Schritt zusätzlich exakt spezifiziert (und die durchaus auch noch detaillierter sein kann), ermöglicht es z. B. einem Pepper-Roboter, das Problem zu bewältigen: 26 Siehe dazu auch Abschnitt V.6.4.1. 142 Humanoide Roboter als Werkzeug Voraussetzungen Koordinaten der Ausgangsposition festlegen: 1 m vor der Tür, Blickrichtung Tür, Parameter für die Kollisionserkennung festlegen Schritt 1 – Annäherung Bewege Dich 40 cm in Richtung Tür, bis Deine rechte Schulter 60 cm Abstand zur Klinke hat. Schritt 2 – Klinke erfassen Hebe Deinen rechten Arm auf 110 cm Höhe. Schritt 3 – Klinke betätigen Öffne Deine rechte Hand, bewege Dich 10 cm nach vorn und schließe Deine rechte Hand. Dreh Deine Hand um 30 Grad nach links und drücke den Arm um 20 cm nach unten. Schritt 4 – Tür öffnen Fahre 20 cm nach vorn. Öffne dabei Deine rechte Hand, sodass die Tür von allein aufgeht. Schritt 5 – Durch Spalt bewegen Fahre durch den entstandenen Türspalt. Ziel Halte in der vordefinierten Endposition. Grundlage des Maker-Space-Konzepts ist es daher, anhand verschiedener Probleme die Lerner in die Lage zu versetzen, komplexe Probleme in Teilschritte zu zerlegen und diese in entsprechende Algorithmen zu überführen. 143 Algorithmisches Denken V.2 Einfache Maker-Spaces Die Ausbildung in der Computerprogrammierung konzentriert sich seit vielen Jahren auf die Vermittlung dieser Art von computergestütztem Denken, eben auf die genannte systematische Aufteilung und Lösung von Problemen durch eine Reihe von Schritten und Prozessen, die von einem Computer ausgeführt werden könnten. Zu den dazu notwendigen Schlüsselkonzepten gehören Zerlegung, Abstraktion und Mustererkennung, Daten und algorithmische Prozesse (unter Verwendung von Sequenzierung, Iteration, symbolischer Darstellung und logischen Operationen). Bemerkenswert ist in diesem Zusammenhang aber auch, dass das Lehren von algorithmischem Denken nicht unbedingt das Programmieren am Computer erfordert, sondern auch mit ‚analogen‘ Gegenständen funktionieren kann: Die CSUnplugged-Initiative (CSU = Computer Science Unplugged)27 verwendet z. B. fesselnde Spiele und Puzzles, Karten, Schnüre, Buntstifte und viel ‚Lauferei‘ bei der Kooperation der Teilnehmer, um Konzepte der Informatik zu lehren (siehe Abb. V.1). In der heutigen Welt dominieren allerdings seit einiger Zeit die digitalen Maker-Spaces, also die offenen Werkstätten, in denen Computer im Zentrum stehen. Einige Programmiersprachen, wie z. B. Logo, wurden genau dazu entwickelt, um die Computerausbildung vor diesem Hintergrund zu fördern. Andere Sprachen, wie Java oder Python, wurden speziell in der Sekundar- und Universitätsausbildung eingeführt, um computergestütztes Denken und, darauf aufbauend, Programmieren zu lehren. In jüngster Zeit haben Roboter die Palette der Möglichkeiten in Maker-Spaces um ein Vielfaches erweitert. 27 https://csunplugged.org/en/ 144 Humanoide Roboter als Werkzeug Abb. V.1: Ein einfacher Maker-Space an der TU Graz (Österreich) V.3 Maker-Spaces mit Robotern Die Idee, Roboter als Lernmittel in Maker-Space-Konzepten einzusetzen, entstand in den frühen Jahren der Computerprogrammierung. Roboter wurden damals zumeist als Erweiterung der Programmierung am Computer eingesetzt, mit dem Ziel, die Ausgabe von Programmen ‚greifbar‘, d. h. über entsprechende Roboter-Aktionen sichtbar zu machen. Schon frühzeitig wurde das Potenzial von Robotern für eine breitere Palette von Themen deutlich, insbesondere, um Lerner für die vier MINT-Fächer (Mathematik, Informatik, Naturwissenschaften, Technik) zu begeistern.28 In jüngster Zeit wurden auch geisteswissenschaftliche Themen und Themen aus der Kunst (engl. arts) miteinbe- 28 Im Englischen lautet die in der Robotik oft verwendete entsprechende Abkürzung STEM (Science, Technology, Engineering, Maths). 145 Maker-Spaces mit Robotern zogen, sodass heute nahezu das gesamte Fächerspektrum Roboter als ideales Werkzeug für ihre Belange einsetzt.29 Auch die Zielgruppen haben sich mittlerweile erheblich erweitert, denn inzwischen wird das gesamte Altersspektrum der formalen Bildung abgedeckt: angefangen in der Vorschule, ab dem Alter von drei oder vier Jahren, mit einfachen Robotern, die so programmiert werden können, dass sie eine Reihe von Bewegungen ausführen, bis hin zur Universitätsausbildung, wo Roboter verwendet werden, um fortgeschrittene fachspezifische Konzepte anzuwenden und zu vertiefen. Ein weiterer Grund für die Einbeziehung von Robotern in Maker- Space-Konzepte besteht, wie auch bei den übrigen in diesem Buch beschriebenen Anwendungen darin, dass von Robotern angenommen wird, dass sie die perfekte Verbindung zwischen Vergnügen und Lernen sind. Viele Studien haben diese motivierenden Aspekte mittlerweile bestätigt, sodass Roboter auch als Mittel zur Erweiterung der Teilnahme, zur Erhöhung der Vielfalt und zur Gewinnung eines breiteren Publikums für MINT-Fächer in der Bildung in Frage kommen. Und noch ein weiterer Aspekt scheint sich abzuzeichnen. Es ist bekannt, dass in MINT-Fächern ein sehr ausgeprägtes Ungleichgewicht zwischen den Geschlechtern besteht und sich trotz einer nahezu gleichen Eignung in jungen Jahren während der Schulzeit eine deutliche Verschiebung zu Ungunsten der Mädchen abzeichnet. Es gibt zwar keine Belege für Initiativen, die diese Diskrepanz erfolgreich aufgehoben haben, aber es scheint sich abzuzeichnen, dass das Ungleichgewicht zwischen den Geschlechtern beim Programmieren von Robotern weniger gravierend ist als bei traditionellen Programmierumgebungen. Die ersten Erfahrungen im Projekt RoboPraX bestätigen jedenfalls diese Annahme (siehe Abschnitt V.7). Eine interessante Entwicklung im Zusammenhang mit der Computer- und Roboterprogrammierung ist die Einführung von Metho- 29 Im Englischen spricht man folgerichtig von den STEAM-subjects (A = arts). 146 Humanoide Roboter als Werkzeug den der visuellen Programmierung in der Bildung, die die Computerprogrammierung und somit die Umsetzung der Maker-Space-Idee gerade auch für jüngere Lerner populär gemacht hat. V.4 Visuelle Programmierung Mit einer visuellen Programmierumgebung (engl. Visual Programming Language, kurz „VPL“) können Computerprogramme oder Roboteranwendungen ohne das Schreiben von Programmiercodes über Tabellen, Symbole oder Diagramme entwickelt werden. Als Konzept ist die visuelle Programmierung schon seit Mitte des 20. Jahrhunderts bekannt, in der Bildung hat sie sich allerdings erst durch zwei Entwicklungen durchgesetzt: die Verwendung der visuellen Programmierung für die LEGO-Mindstorms-Roboterbausätze und die zunehmende Popularität der visuellen Programmierumgebung „Scratch“.30 Scratch ist eine blockbasierte, visuelle Programmiersprache, die sich hauptsächlich an Kinder richtet. Ähnlich wie andere Programmiersprachen, basiert Scratch auf dem regulären Blockbau und legt den Fokus jedoch auf die erzieherische Funktion des Programmierens. Kinder aller Altersstufen können im Rahmen von Schulprojekten das Programmieren erlernen. Scratch wird als Einführungssprache verwendet, da die Erstellung von Programmen relativ einfach ist und die erlernten Fähigkeiten auf andere Programmiersprachen wie Python und Java angewendet werden können. Abb. V.2 zeigt die Umsetzung einer einfachen „Hello, world“-Anwendung mit Scratch. 30 Der Name „Scratch” kommt von dem Geräusch, das bei der Unterbrechung von Schallplatten aber auch beim Mischen verschiedener Medien entsteht. 147 Visuelle Programmierung Abb. V.2: Scratch (Screenshot einer einfachen Anwendung) Der visuelle Stil von Scratch beeinflusste die visuelle Programmiersprache „Blockly“, die entwickelt wurde, um Verbindungen zu verschiedenen Software-Varianten zu ermöglichen, darunter auch Software, die auf Robotern läuft. Auch Blockly verwendet visuelle Blöcke, die miteinander verknüpft sind, um das Schreiben von Code zu vereinfachen. Im Jahr 2012 im Rahmen von Google Developers veröffentlicht, kann Blockly besonders als Bildungswerkzeug dienen. Die sogenannten „Blockly Games“ sind eine Möglichkeit für jüngere Lerner die Grundprinzipien des Programmierens kennenzulernen. Diese kostenfreien Spiele können sowohl im privaten Bereich sowie in der Schule genutzt werden, um so Lernern algorithmisches Denken und Informatik-Prinzipien mit Hilfe der visuellen Programmierung zu vermitteln. Auch die Erweiterung von „Minecraft“, einem der bekanntesten Videospiele der jüngsten Zeit kann als visuelle Entwicklungsumgebung für den Unterricht eingesetzt werden. „Minecraft for Education“, so die genaue Bezeichnung, nutzt die Grundprinzipien des Spiels (Bauen 148 Humanoide Roboter als Werkzeug und Erkunden) für den Einsatz im Unterricht. Dabei steht bereits eine große Anzahl an vorbereiteten Unterrichtseinheiten zur Verfügung, die verschiedenste Fächer und Themen umfassen. Am Beispiel einer Minecraft-Welt voller ausgestorbener Tiere, die mit vielen wissenswerten Informationen versehen sind, können sich Lernende eigenständig Wissen aneignen, oder die vorbereiteten Arbeitsaufträge der Lerneinheit bearbeiten. So können Schüler anhand praktischer Beispiele in Konzepte der Informatik und der elementaren künstlichen Intelligenz eingeführt werden. Für die Nutzung von „Minecraft for Education“ wird allerdings eine jährliche Lizenzgebühr erhoben. Mit der Markteinführung der NAO-Roboter im Jahr 2006 und der für die Entwicklung dieser Roboter bereitgestellten Software „Choregraphe“ wurden die Möglichkeiten des Roboter-Einsatzes als Werkzeug erheblich erweitert. Zum einen bieten die NAO-Roboter selbst wesentlich mehr Optionen als z. B. Roboterbausätze, zum anderen erlaubt deren visuelle Programmierumgebung Choregraphe wesentlich umfangreichere Problemlösungen als z. B. Scratch, und gestattet zusätzlich die Modifikation existierender Python-Programmblöcke, sowie die Integration von selbstgeschriebenen Python-Codes.31 V.4.1 Choregraphe Choregraphe ist eine Multiplattform-Desktop-Anwendung für die visuelle Programmierung von Robotern aus dem Hause SoftBank Robotics, die das Folgende ermöglicht: • Erstellung von Animationen, Verhaltensweisen und Dialogen, • Testen von Programmen an einem simulierten (dem sog. „virtuellen“) Roboter oder an einem echten Roboter, • Überwachung und Steuerung von Robotern, 31 Die Varianten der Programmierung mit Choregraphe/Python werden in Abschnitt VI.3 erneut aufgegriffen. 149 Visuelle Programmierung • Anreicherung von Choregraphe-Verhalten mit eigenem Python- Code. Mit Choregraphe können Anwendungen für NAO-Roboter und bis einschließlich Version 2.5 auch für Pepper-Roboter erstellt werden, die Dialoge, Dienste und leistungsfähige Verhaltensweisen enthalten, wie z. B. die Interaktion mit Menschen, Tänze oder E-Mail-Versand, ohne eine einzige Zeile Code zu schreiben.32 Jedoch ist auch möglich vorgefertigte Boxen mit eigenem Python Code zu erweitern oder eine leere Box mit Python Code komplett selbst zu definieren. Choregraphe ist für die Betriebssysteme Windows, Linux Ubuntu und Mac OS verfügbar. Wenn die Software gestartet wird, erscheint die in Abb. V.3 dargestellte grafische Benutzeroberfläche mit den Werkzeugen und verschiedenen Fenstern – alles in englischer Sprache. Abb. V.3: Choregraphe 2.8.6 32 Die neuesten Pepper-Versionen werden seit 2019 nicht mehr über Choregraphe sondern über Android programmiert. 150 Humanoide Roboter als Werkzeug Im oberen Bereich findet man ähnlich wie bei Microsoft Office Produkten (Word, PowerPoint, etc.) eine Menüleiste sowie eine Werkzeugleiste, die als Shortcut (dt. Verknüpfung) zu Menüeinträgen (File, Edit, etc.) fungiert. Das heißt die Verbindung mit einem Roboter kann entweder über das Menü à Connection à Connect to Robot oder durch Klicken auf den grünen Button in der Werkzeugleiste geschehen. Darunter finden wir verschiedene Fenster, die in Abb. V.3. durch orangefarbene Buchstaben gekennzeichnet sind. Fenster A zeigt die Projektdateien (engl. Project Files), also die Bestandteile bzw. Dateien des Projektes an, und Fenster B die Boxensammlung (engl. Box libraries), d. h. die von Choregraphe bereitgestellten vorgefertigten Boxen. In der Bildschirmmitte, hier Bereich C, befindet sich die Hauptarbeitsfläche (engl. Flow Diagram Panel), wo die gewünschten Programme entwickelt werden. Auf der rechten Seite, in Bereich D, finden wir zum einen die Roboteransicht (engl. Robot View), eine grafische Darstellung von wahlweise Pepper oder NAO, die das implementierte Verhalten ausführen kann, und darunter das Inspektor-Fenster (engl. Inspector panel), Bereich E, das die Eigenschaften des ausgewählten Objekts bzw. Box anzeigt. Für die über die Jahre erschienenen unterschiedlichen NAO-Versionen mit unterschiedlichen NAOqi Frameworks (NAOqi ist der Name der Hauptsoftware, die auf dem Roboter läuft und ihn steuert) gibt es dementsprechende Choregraphe-Versionen. Ein NAO.V5, der mit NAOqi 2.1 läuft, sollte auch mit Choregraphe 2.1 programmiert werden, ebenso sollten Anwendungen für NAO.V6 mit NAOqi 2.8 über Choregraphe 2.8 entwickelt werden. V.4.2 Tethys Im März 2020 brachte SoftBank Robotics in Nordamerika mit „Tethys“ ein visuelles Programmierwerkzeug zur Entwicklung von Anwendungen für Pepper-Roboter auf den Markt. Das Unternehmen erhofft sich [V.V.1] 151 Visuelle Programmierung dadurch, dass sein humanoider Roboter, der bereits in Privathaushalten, Einzelhandelsgeschäften und Forschungslaboren eingesetzt wird, auch in Schulen eine Rolle spielen und zur Förderung der nächsten Generation von Entwicklern und Programmierern beitragen kann. Tethys ist eine integrierte Entwicklungsumgebung (engl. integrated development environment oder kurz IDE). Sie verfügt über eine benutzerfreundliche visuelle Programmierschnittstelle, ist in diesem Sinne anderen visuellen Programmiersprachen wie Blockly und Scratch ähnlich und kann im Webbrowser auf normalen Laptops und auch auf den in Schulen beliebten Chromebooks eingesetzt werden. Um ein Programm zu erstellen, zieht man wie in der visuellen Programmierung üblich Programm-Boxen, die verschiedene Roboter- Verhalten repräsentieren, auf den Bildschirm und verbindet sie mit virtuellen ‚Drähten‘. Das Ergebnis kann dann direkt auf einem Pepper-Roboter oder auf seinem virtuellen Pendant am Bildschirm ausgeführt werden. Im Rahmen eines Pilotprogramms verwenden bereits mehr als 1.000 Schüler in etwa 20 öffentlichen Schulen in Boston, San Francisco und Vancouver das Tool. Die Expansion an weiteren Standorten ist geplant. Der Reiz in der Nutzung von Tethys liegt möglicherweise nicht so sehr in der Bedienung dieser IDE, sondern eher in der Möglichkeit mit Pepper als Werkzeug zu arbeiten, da dieser Roboter auf Grund seiner Größe im Vergleich zu NAO ungleich attraktiver ist. Auf der anderen Seite bedeutet die Größe von Pepper aber auch, dass er ein Mehrfaches kostet.33 Sollen sich also Schulen Pepper-Roboter als Werkzeuge leisten können, bedarf es neuer Konzepte der Bereitstellung, wie Leasing oder Beschaffung durch Sponsoring. Bisher hat das Unternehmen das Problem durch die Spende von über 100 Pepper-Robotern an amerikanische und kanadische Bildungsinstitutionen in den vergangenen zwei Jahren gelöst. 33 Der Preis für einen NAO .V6 Roboter lag zur Zeit der Drucklegung dieses Buches bei 5.700,– €, ein Pepper-Roboter.V9 kostet ca. 17.000,– €. 152 Humanoide Roboter als Werkzeug V.5 Maker-Spaces mit NAO-Robotern Die umfangreichen Möglichkeiten, der zumindest einigermaßen überschaubare Anschaffungspreis und die hervorragende Eignung von NAO-Robotern als Werkzeug in digitalen Maker-Spaces haben zu einer mittlerweile immer größer werdenden Verbreitung geführt. Neben speziellen, z. T. auch privaten Anbietern gibt es inzwischen zahleiche Ansätze, NAO-Roboter als Werkzeuge in reguläre curriculare Prozesse einzubauen bzw. zu einem permanenten Bildungsangebot zu machen. V.5.1 Robotik-Schulen Eine der bekanntesten europäischen Robotik-Schulen ist die italienische Scuola di Robotica in Genua.34 Dieser gemeinnützige Verein wurde im Jahr 2000 von einer Gruppe von Geisteswissenschaftlern gegründet, mit dem Ziel, die Förderung der Disziplinen, die am Entwicklungsprozess der Robotik und neuer Technologien beteiligt sind, voranzutreiben. Im Laufe der Jahre hat sich die Robotik-Schule zu einem nationalen und internationalen Bezugspunkt für viele Forschungs- und Anwendungsaktivitäten der Robotik in den unterschiedlichsten Bereichen der Gesellschaft wie Lehre, Ökologie und Behinderung entwickelt. Die Robotik-Schule ist Partner vieler europäischer Projekte und seit 2009 landesweit als entsprechende Ausbildungseinrichtung zertifiziert. Eine ähnliche Einrichtung existiert mit der „Robotikos Akademija“ in Litauen.35 Diese Einrichtung bietet landesweit Kurse zu diversen Themen der Robotik an, u. a. auch Maker-Spaces mit Robotern, wobei humanoide Roboter hier bisher keine signifikante Rolle spielen. 34 https://www.scuoladirobotica.it 35 https://robotikosakademija.lt/ 153 Maker-Spaces mit NAO-Robotern Bei beiden Einrichtungen steht die allgemeine Robotik im Vordergrund. Über Konzepte zur flächendeckenden schulischen Integration von Robotik-basierten Unterrichtskonzepten, ganz zu schweigen von curricularen Verankerungen, verfügen allerdings weder die italienische Scuola di Robotica noch die litauische Robotikos Akademija. V.5.2 NAO-Roboter in Bildungszentren NAO-Roboter sind seit 2019 auch am Bildungszentrum Niedernhall (BZN) in Baden-Württemberg vertreten. In einer wöchentlichen AG können Schüler mit den Robotern arbeiten. So lernen sie das Programmieren mit Symbolen, Kreativität, Problemlösefähigkeit und Team- bzw. Kooperationsfähigkeit. Vor allem aber stehen das eigene Finden von Lösungen und die Freude am Umgang mit dem NAO- Roboter im Vordergrund. Abb. V.4 zeigt die Roboter AG des BZN zusammen mit ihren NAO-Robotern. Allerdings gibt es auch hier nur geringe Durchdringungseffekte, da die curriculare Integration fehlt. Abb. V.4: Die NAO-Roboter AG in Niedernhall 154 Humanoide Roboter als Werkzeug V.5.3 NAO-Roboter in „Smart Schools“ Eher auf den zukünftigen Arbeitsmarkt ausgerichtet ist das „Erich Gutenberg Berufskolleg Köln“ (EGB). Dem dortigen Robotereinsatz liegt die Erkenntnis zu Grunde, dass mit „Industrie 4.0“ in den nächsten zehn Jahren eine 30-prozentige Reduzierung der durch Menschen besetzten Arbeitsplätze durch Roboter erfolgen kann. Davon werden auch Schüler betroffen sein, die nach Ihrem Schulabschluss auf den Arbeitsmarkt drängen, der den Bereich Industrie 4.0 betrifft. Im Sinne der Initiative „Bildung 4.0 bzw. Schule 4.0“ der Landesregierung von Nordrhein-Westfalen will das EGB seine Schüler und Auszubildende auf das Thema Robotik vorbereiten und dabei auch mehr als nur Grundlagenwissen vermitteln. Dazu hat das EGB nach den LEGO-Mindstorms Robotern seit 2018 auch die Roboter NAO und Pepper in sein Schulungskonzept aufgenommen. Von der Webseite des EGB Köln … Es hat sich herausgestellt, dass die Arbeit mit humanoiden Robotern eine erhebliche Steigerung der Kompetenzerlangung mit sich bringt. Der Einsatz humanoider Roboter fördert die Kreativität, die Problemlösungsfähigkeiten sowie die Ausbildung von Kooperationsund Teamkompetenzen im Unterricht und auch im gesellschaftlichen Leben. Dies alles sind Kernkompetenzen der 21st Century Skills. Die Ausrichtung auf die humanoide Robotik erscheint uns zeitgerecht und für den Kompetenzaufbau und die Kompetenzerweiterung der Schüler und Auszubildenden in diesem Thema dringend notwendig! Quelle: https://bit.ly/2usWgjr Im März 2018 erhielt die EGB Köln für ihr digitales Gesamtkonzept die „Smart School“-Auszeichnung. Über eine eventuelle curriculare Verankerung der Nutzung der humanoiden Roboter NAO und Pepper, die über eine Robotik AG hinausgeht, ist allerdings nichts bekannt. 155 Maker-Spaces mit NAO-Robotern V.5.4 NAO-Roboter im regulären Schulbetrieb So nützlich die in den vergangenen Abschnitten vorgestellten Roboter-Projekte und Robotik-Einrichtungen für die Vermittlung programmiertechnischer und algorithmischer Fertigkeiten auch sind, so sind sie doch in der Regel auf einen überschaubaren Adressatenkreis beschränkt – ihr Verbreitungsgrad ist somit noch sehr gering. Zum einen fehlt ihnen zu einer flächendeckende Dissemination die curriculare Verankerung in den Lehrplänen von Schulen und damit eine Verbreitung, die über freiwillige AG-Angebote oder gar Bezahlangebote hinausgeht, zum anderen sind keinerlei zielgruppenspezifische Anpassungskonzepte zu finden. Mit dem „Robotikum-Konzept“ versucht das Autorenteam dieses Buches seit Mitte 2017 ein neues Roboter-Schulungskonzept und somit einen weitergehenden Ansatz zu entwickeln. Die Idee zu diesem Konzept entstand aus den Evaluationen im Rahmen des Projekts H.E.A.R.T., als klar wurde, dass NAO-Roboter als Partner nur bedingt für die ‚normale‘ Hochschullehre in Frage kommen (sie sind einfach zu klein, siehe S. 157), sich als Werkzeug für die Vermittlung digitaler Konzepte aber bestens eignen. Die folgenden Abschnitte beschreiben die Eckdaten und zusätzlichen Komponenten für das Robotikum-Konzept, das zunächst ein Nebenprodukt des BMBF-geförderten Projekts H.E.A.R.T. war und heute Teil des weitergefassten, ebenfalls BMBF-geförderten Projekts RoboPraX ist. V.5.4.1 Die Pilotphase Im Rahmen des Projekts H.E.A.R.T., das u. a. das Teilziel hatte, zu ermitteln, welche Roboter überhaupt in der Hochschullehre als Partner in Frage kommen, wurde neben Pepper-Robotern auch der Einsatz von NAO-Robotern als Partner in der Lehre untersucht. Das Ergebnis war eindeutig: Eine Partnerrolle kommt für NAO-Roboter in der 156 Humanoide Roboter als Werkzeug Hochschullehre, egal welchen Formats, nicht in Frage. NAO ist mit seinen 56 cm Körpergröße einfach zu klein, um als vollwertiger Partner akzeptiert zu werden, und – stellt man ihn zur besseren Sichtbarkeit auf einen Tisch, wird er dennoch eher als Spielzeug angesehen. Als Werkzeug allerdings, so die Vermutung im Rahmen von H.E.A.R.T., kann er sehr wohl eine höchst motivierende Rolle spielen. Um dies zu überprüfen, wurden mit sieben freiwilligen Schülern einer Oberstufenklasse einer Marburger Schule drei Tage lang an einem NAO-Roboter Grundkonzepte der Dialogführung, der Fortbewegung und der Objekterkennung erprobt. Abb. V.5 zeigt Schnappschüsse aus dem ersten Testlauf. Programmieren mit Choregraphe Test am NAO-Roboter Abb. V.5: Der „Robotikum“-Testlauf Gleichzeitig wurden die Auswirkungen auf das algorithmische Denken der Schüler evaluiert. Auf die bereits in Abschnitt V.1 gestellte Aufgabe „Tür Öffnen“ antworteten sie vor dem Projekt, z. B. mit Den Türgriff betätigen und die Tür mit der Hand öffnen, dann eine Schrittbewegung nach vorn. 157 Maker-Spaces mit NAO-Robotern Im Anschluss an den Testlauf wurde den Teilnehmern folgende Aufgabe gestellt: Du sitzt an einem Tisch, auf dem ein volles Glas Wasser steht. Du möchtest das Glas austrinken. Was ist zu tun? Beschreibe Dein Vorgehen so kurz und genau wie möglich. In einer qualitativen Studie konnten anschließend gravierende Ver- änderungen im Problemlösungsverhalten der teilnehmenden Schüler festgestellt werden, wie z. B. diese Antwort verdeutlicht: Hand nach vorn strecken. Hand öffnen. Hand weiter nach vorne bis Glas umschlossen. Hand schließen. Arm anheben. Ellbogen einknicken. Hand zurückziehen bis zum Mund. Hand kippen. Mund öffnen. Trinken. Durch die Erkenntnisse dieser Pilotstudie ermutigt entstand die Idee eines schulübergreifenden regulären Angebots, mit NAO-Robotern in den Schulalltag zu gelangen, um nicht nur ausgewählten Schülern oder hochmotivierten Teilnehmern an Robotik-AGs, sondern allen Schülern die Gelegenheit zu geben, durch den Umgang mit humanoiden Robotern des Typs NAO nicht nur ihr algorithmisches Denken zu verfeinern, sondern auch allgemeine medien-relevante Aspekte kennenzulernen. Die Idee eines flächendeckenden „Robotikums“ war geboren. Dass NAO-Roboter übrigens auch in anderen Kontexten als Werkzeug eine Rolle spielen können, zeigt folgendes Beispiel, das im regulären sprachwissenschaftlichen Lehrbetrieb zum Einsatz kam. 158 Humanoide Roboter als Werkzeug NAO als Werkzeug in der Hochschullehre (Phonologie) Mit einem einfachen Experiment kann man das Bewusstsein von Studenten für Ausspracheunterschiede und orthographische Eigenschaften von Sprachen schärfen. Dabei nutzt man einfach die Unfähigkeit des Roboters, Namen landessprachen-gerecht auszusprechen. Ist bei NAO z. B. die englische Sprache eingestellt und er soll den deutsche Namen „Sabine“ aussprechen, bekommt er Probleme. Diese können durch einen arbiträren orthographischen Code gelöst werden. In einer SAY-Box wird dem Roboter anstatt „Hello Sabine“ die neue Form „Hello Zabeener“ übergeben und schon ist das Problem gelöst. Mit einem einfachen Setup: Laptop – NAO-Roboter kann so ein Ausspracheproblem gelöst werden und zusätzlich die Sprachwahrnehmung der Studenten gefördert werden. NAO erweist sich dabei einmal mehr als motivierendes Werkzeug, und – als Nebeneffekt – lernen die Lernbegleiter die Namen ihrer Kursteilnehmer schneller kennen. V.5.4.2 Das H.E.A.R.T. – Robotikum Zur Realisierung der Robotikum-Idee wurde von der Stadt Marburg, ihrem staatlichen Schulamt und der verantwortlichen Schulleitung ein speziell ausgestatteter Unterrichtsraum in der Marburger Adolf-Reichwein-Schule nicht nur permanent für das Robotikum bereitgestellt, sondern auch mit der entsprechenden technischen Infrastruktur ausgestattet (Laptops, Roboter, Präsentationsmöglichkeiten, WLAN-Zugang). Personell wurde das Robotikum vom H.E.A.R.T.-Team der Universität Marburg und zwei weiteren studentischen Hilfskräften – finanziert durch die Stadt Marburg – begleitet. 159 Maker-Spaces mit NAO-Robotern Zusätzlich konnten durch Sponsoring weitere NAO-Roboter angeschafft werden, so dass 2018 für diese erste Version des Robotikums folgende personelle und materielle Infrastruktur bereitstand: • 4 NAO.V5 -Roboter • 12 Laptops mit Choregraphe 2.1.4 • 1 Präsentationslaptop • 1 Datenprojektor • WLAN-Zugang • Tische, Stühle • 2 studentische Hilfskräfte Hinzu kam die inhaltliche Unterstützung durch die übrigen Mitglieder des H.E.A.R.T.-Teams bei der Planung und Entwicklung der Aufgaben für die Schüler im Robotikum. Abb. V.6 zeigt das komplette Team 2018. Abb. V.6: Das H.E.A.R.T-Robotikum-Team 2018 160 Humanoide Roboter als Werkzeug Das ursprüngliche Ablaufszenario im Robotikum, das drei Tage lang mit jeweils sechs Unterrichtsstunden pro Tag durchgeführt wurde, war thematisch wie folgt organisiert: • Tag 1 Roboter im Dialog mit Menschen • Tag 2 Roboter bewegen sich • Tag 3 Roboter sehen und fühlen Abb. V.7 zeigt eine Schulklasse (Oberstufe) im Robotikum. Abb. V.7: Das Marburger H.E.A.R.T – Robotikum 2018 V.5.4.3 Von H.E.A.R.T. zu RoboPraX Nach mehreren erfolgreichen Testläufen im zweiten Halbjahr 2018 wurde offensichtlich, dass ein auf Dauer funktionierendes Robotikum der durchgeführten Art nur dann den notwendigen Durchdringungsgrad erreicht, wenn es curricular in den Lehrplänen verankert wird. Dabei muss allerdings gewährleistet sein, dass dem in jeder Klasse existierenden Leistungsgefälle sowie den Unterschieden zwischen den einzelnen Klassenstufen Rechnung getragen wird. Mit anderen Wor- 161 Maker-Spaces mit NAO-Robotern ten: Die Inhalte und die Vorgehensweise im Robotikum selbst sollten an die jeweiligen Zielgruppen angepasst werden. Darüber hinaus sollte sichergestellt werden, dass die kostbaren, insgesamt 18 Stunden Präsenzzeit effizient genutzt und nicht mit organisatorischen, administrativen oder Grundlagen-bezogenen Aspekten belastet werden. Die grundlegende Funktionsweise von Choregraphe (Bildschirmaufbau, Menüstruktur, Werkzeugleiste, Funktionsweise etc., siehe Abb V.3) beispielsweise sollten nicht länger Teil der Präsenzphase im Robotikum sein, sondern bereits beim Start des Robotikums ‚sitzen‘, also Teil des vorab verfügbaren Wissens bzw. der vorhandenen Kompetenzen der Teilnehmer sein. All diese Erkenntnisse führten zu dem über das einfache Robotikum hinausgehenden, ganzheitlichen Vermittlungsansatz, der gepaart mit zusätzlichen Forschungs- und Entwicklungskomponenten als Projekt RoboPraX seit 2019 vom Bundesministerium für Bildung und Forschung gefördert wird. V.6 RoboPraX RoboPraX steht für: Roboter-Praktikum zur Förderung algorithmischer Denk- und Problemlösungsstrategien in einer digitalisierten Welt und ist in zwei übergeordnete Komponenten unterteilt: • die Komponente Lehren und Lernen • die Komponente Forschen und Entwickeln Die Lehr-/Lern-Komponente greift dabei die bisherigen Erfahrungen mit dem H.E.A.R.T. – Robotikum auf und sorgt für eine zielgruppenspezifische Organisation des inhaltlichen Angebots. Über die zusätzliche Forschungs- und Entwicklungskomponente wurden Anpassungen an den Inhalten und Angebotsszenarien vorgenommen und 162 Humanoide Roboter als Werkzeug entsprechende, sukzessiv an die jeweilige Lernergruppe angepasste, Umsetzungskonzepte entwickelt. Lehren, Lernen, Evaluieren und Entwickeln bilden dabei einen eigenständigen Zyklus, der mehrfach durchlaufen wird und dabei durch neue Gruppenzusammensetzungen und maßgeschneiderte Entwicklungsaufgaben an humanoiden Robotern die Teilnehmer optimal auf die in einer digitalen Welt benötigten Denk- und Planungsstrukturen vorbereitet. Abb. V.8 zeigt den Aufbau von RoboPraX. Abb. V.8: RoboPraX – Komponenten und Abläufe Auftakt-Bestandteil von RoboPraX ist der Online-Vorkurs „Robo- Base“. Er dient der selbstgesteuerten Inhaltsvermittlung, ist in verschiedenen zielgruppenspezifischen Varianten angelegt und macht die Kursteilnehmer mit den Prinzipien der Assistenzrobotik, sowie mit der Entwicklungsumgebung Choregraphe vertraut. 163 RoboPraX Im anschließenden dreitägigen „Robotikum“ werden kollaborativ die Grundlagen der Assistenzrobotik praxisnah an den vorhandenen Robotern erprobt und entwickelt, und die Teilnehmer werden so an die von der deutschen Kultusministerkonferenz 2016 definierten Kompetenzbereiche der digitalen Welt herangeführt. Neu im Projekt RoboPraX ist die Forschungs- und Entwicklungskomponente. Um die notwendigen Anpassungen an den inhaltlichen Komponenten RoboBase und Robotikum vornehmen zu können, bedarf es nämlich umfangreicher Evaluationen und Entwicklungen. Dabei werden permanente, qualitative und quantitative Untersuchungen vor, während und nach dem Durchlaufen der Lehr-/Lern- Komponente vorgenommen (RoboEval) und anschließend entsprechende Anpassungen an der Lehr-/Lernkomponente vorgenommen (RoboFit). Praktisch arbeitet RoboPraX auf einen Ablaufplan hin, der durch Evaluationen zur Umsetzbarkeit, Handhabung und Wirkung ständig weiterentwickelt wird. Durch die angestrebte curriculare Verankerung kann er zusätzlich als Standard in die Lehrerbildung übernommen werden. So werden Problemlösungsstrategien und algorithmisches Denken unter Zuhilfenahme entsprechender Hard- und Softwaretools nachhaltig auf verschiedenen Ebenen auf- und ausgebaut. V.6.1 Der Online-Vorkurs RoboBase Ein wesentliches Problem des ursprünglichen „H.E.A.R.T.-Robotikums“ bezog sich auf das Vorwissen der Teilnehmer. Während einige Teilnehmer, möglicherweise in der Erwartung des Robotikums ihre Computerkenntnisse aufpoliert hatten, manche sich sogar schon mit NAO-Robotern und der zugrunde liegenden Entwicklungsumgebung Choregraphe vertraut gemacht hatten, begannen andere ohne jegliche Vorkenntnisse, z. T. sogar ohne jegliche Medienbedienkompetenzen das Robotikum. Um diese Diskrepanz der Vorkenntnisse und Fertig- 164 Humanoide Roboter als Werkzeug keiten auszugleichen, entschied sich das RoboPraX-Team zur Entwicklung und Einrichtung des Online-Vorbereitungskurses RoboBase.36 RoboBase.V5.01 – Auszug aus dem Kurs-Trailer In diesem Kurs zeigen wir, dass humanoide Roboter bereits Einzug in unseren Alltag halten. Neben Rasenmäher- oder Staubsaugerrobotern existieren zunehmend auch Roboter, die uns Menschen in unseren Fähigkeiten und unserem Aussehen nachahmen. Was können diese Roboter derzeit? Wie werden sie gesteuert? Wie können wir von und mit ihnen lernen? Diese und weitere Fragen möchte dieser Kurs beantworten und Dir einen ersten Überblick über humanoide Roboter und ihre Nutzung in der heutigen Zeit geben. Quelle: https://www.oncampus.de/weiterbildung/moocs/robobase RoboBase ist wie ein MOOC (Massive Open Online Course) organisiert und besteht aus vier obligatorischen Lerneinheiten und einer optionalen zusätzlichen Lerneinheit zur Programmierung: • Lerneinheit 1: Humanoide Roboter • Lerneinheit 2: Die Fähigkeiten humanoider Roboter • Lerneinheit 3: Choregraphe • Lerneinheit 4: Anwendungen • Lerneinheit 5 (optional): Vertiefende Informationen Diese Lerneinheiten, die je nach Lerntempo in insgesamt vier bis acht Arbeitsstunden durchgearbeitet werden können, führen in die Grundlagen der Robotik ein und behandeln dabei Themen wie „Was sind humanoide Roboter?“ oder „Wie funktionieren humanoide Roboter?“. 36 Das RoboPraX-Team stammt in großen Teilen aus der Marburger Arbeitsgruppe „Linguistic Engineering“, die über jahrzehntelange und mittlerweile vielfach preisgekrönte Erfahrung in der Erstellung digitaler Lehrangebote verfügt. [V.V.2] 165 RoboPraX Zusätzlich führt der Kurs in das Programm Choregraphe, die zentrale visuelle Entwicklungsumgebung für NAO-Roboter, ein und stellt somit vor Durchführung des Robotikums das gesamte dafür benötigte Grundwissen bereit. Neben Texten und Grafiken enthält der Kurs interaktive Videos, um möglichst viele verschiedene Rezeptionskanäle zu bedienen. Dazu wurde RoboBase mit dem eigenen YouTube-Kanal „Educational Robotics“ verknüpft. Dort befinden sich alle für RoboBase benötigten und CC-BY lizensierten Lehrvideos. Zusätzlich sind die insgesamt 40 Lehrvideos für einen RoboBase-Kurs über das H5P-Tool mit Fragen gekoppelt, deren Beantwortung notwendig ist, um den Kurs zertifiziert zu bekommen. Um die Teilnehmer zusätzlich zu motivieren, den Kurs auch durchzuarbeiten, gibt es mit den im Kurs zu erwerbenden Digital Badges auch die entsprechende Anreize. Abb. V.9 stellt die in den vier obligatorischen Lerneinheiten zu erwerbenden Badges, je Lerneinheit ein Badge, vor. Lerneinheit 1: KI-Experte Lerneinheit 2: Roboter-Kenner Lerneinheit 3: Choregr-Master Lerneinheit 4: Naturtalent Abb. V.9: Digital Badges im Kurs RoboBase Zur Lösung der Zielgruppenproblematik wurden bisher zwei sprachlich und inhaltlich unterschiedliche RoboBase-Varianten eingerichtet, eine für Schüler der Unter- und Mittelstufe und eine für Oberstufenschüler. 166 Humanoide Roboter als Werkzeug Außerdem musste bei der Einrichtung der Online-Vorkurse berücksichtigt werden, dass derzeit zwei NAO-Roboter mit unterschiedlichen Choregraphe-Entwicklungsumgebungen existieren: • NAO.V5 mit Choregraphe 2.1 • NAO.V6 mit Choregraphe 2.8 Zwar werden seit 2019 nur noch NAO-Roboter der Version V6 über den Fachhandel ausgeliefert, da allerdings zahlreiche Institutionen noch NAO.V5 Roboter im Einsatz haben, sind auch die entsprechenden Vorkurse entwickelt worden. Zurzeit gibt es somit vier Varianten des Online-Vorkurses RoboBase: Kurs Zielgruppe NAO Choregraphe RoboBase.V5.01 Oberstufe V5 2.1 RoboBase.V6.01 Oberstufe V6 2.8 RoboBase.V5.02 Unter-/Mittelstufe V5 2.1 RoboBase.V6.02 Unter-/Mittelstufe V6 2.8 Abb. V.10: RoboBase-Varianten Alle RoboBase-Varianten werden über die E-Learning-Plattform oncampus der TH Lübeck angeboten.37 Weitere zielgruppen-spezifische RoboBase-Versionen, z. B. für die Primarstufe, sind in Arbeit. Mit Einführung des Online-Vorkurses RoboBase kann die Lehr-/ Lernkomponente von RoboPraX nun in einem Inverted-Classroom- Format angeboten werden: Das Grundwissen wird vorab online über RoboBase im Selbststudium erworben, die Inhaltsvertiefung erfolgt in Präsenz im Robotikum. 37 Gemeinsame URL: https://www.oncampus.de/; Suchbegriff: „RoboBase“. 167 RoboPraX V.6.2 Das RoboPraX – Robotikum Dass Robotikum selbst findet wie bereits in Abschnitt V.5.4.2 beschrieben an drei aufeinanderfolgenden Tagen mit jeweils sechs Unterrichtsstunden statt und nutzt weiterhin die in der Pilotphase eingerichtete Infrastruktur (vier NAO-Roboter, Laptops etc., Abb. V.11). Abb. V.11: Das RoboPraX-Robotikum: 12 Laptops, 4 NAO-Roboter Die Inhalte verteilen sich dabei wie folgt auf die einzelnen Tage: Tag 1 Dialoge mit NAO Eine Einstiegsaufgabe Einfache Sprachausgabeaufgaben (Englisch/Deutsch) Einfache und komplexe Dialoge Sounds im 2. Audiokanal Tag 2 NAO bewegt sich Die Choregraphe-Timeline Körperanimationen über die Timeline Dialoge mit selbst-definierten Animationen Einfache Fortbewegung in alle Richtungen 168 Humanoide Roboter als Werkzeug Tag 3 NAO sieht und fühlt Grundlagen der Objekterkennung (Kameras, Sensoren) Animationen mit Sensoren koppeln Gesichts-, Alters- und Emotionserkennung Durch den Vorkurs RoboBase allerdings entstehen neue Möglichkeiten. Anstatt sich mit organisatorischen und Grundlagen-bezogenen Aspekten befassen zu müssen, kann nun idealerweise sofort mit der Arbeit am Roboter begonnen werden. Voraussetzung für diese vollständige Umsetzung des Inverted-Classroom-Formats und somit eine erfolgreiche Präsenzphase im Robotikum ist die Durchdringung der Inhalte von RoboBase. Da das nicht für alle Teilnehmer vorausgesetzt werden kann, wurde das im vergangenen Abschnitt beschriebene digitale Badge-System eingeführt. Es entfaltet nicht nur eine motivierende Wirkung auf die Lerner, sondern es dient auch als probater Lernstandsanzeiger für den Lernbetreuer, insbesondere vor Beginn des Robotikums. Abb. V.12 zeigt den Badge-Status für eine zehnköpfige Lernergruppe vor Beginn ihres im Frühjahr 2020 abgehaltenen Robotikums. Name Ort Badges Volker Martin Stadtallendorf 1,2,3,4 Walter Worms Stadtallendorf 1,2,4 Kirsten Walter Stadtallendorf 1,2 Kevin Gründer Stadtallendorf 1,2,3,4 Jörn Peter Neustadt --- Mehmet Üzüglü Stadtallendorf 1,2,3,4 Nadine Schmidt Neustadt 1,3 Fiona Meckel Stadtallendorf 1,3 169 RoboPraX Frank Wagner Stadtallendorf 1,2,3,4 Fatima Hussein Stadtallendorf --- Abb. V.12: Der Badge-Status eines ausgewählten Kurses vor Beginn des Robotikums (Orte und Badge-Status sind real, die Namen sind frei erfunden; die Badge- Kennungen beziehen sich auf die Badges in Abb. V.9) Die Teilnehmer der in Abb. V.12 aufgelisteten zehnköpfigen Gruppe lassen sich nun leistungsmäßig wie folgt gruppieren: Gruppe 1 (alle vier Badges) Volker Martin, Kevin Gründer, Mehmet Üzüglü, Frank Wagner Gruppe 2 (drei bzw. zwei Badges) Walter Worms, Kirsten Walter, Nadine Schmidt, Fiona Meckel Gruppe 3 (keine Badges) Jörn Peter, Fatima Hussein Aus dieser Vorgruppierung ergeben sich zwei Tischgruppen mit unterschiedlichem Vorwissen für das Robotikum: Tischgruppe A (gute Vorkenntnisse): Volker Martin, Kevin Gründer, Mehmet Üzüglü, Frank Wagner (vier Badges), sowie Nadine Schmidt, Fiona Meckel (zwei Badges inkl. „Choregraphe“-Badge) und Walter Worms (drei Badges) Tischgruppe B (wenig Vorkenntnisse): Jörn Peter, Fatima Hussein (keine Badges) und Kirsten Walter (zwei Badges, allerdings ohne den „Choregraphe“-Badge) Während die Lerner von Tischgruppe A direkt selbstständig mit der Entwicklung erster Roboter-Anwendungen in Choregraphe beginnen können, benötigen die Lerner von Tischgruppe B noch eine kurze Einführung bzw. tutorielle Begleitung im Umgang mit Choregraphe. 170 Humanoide Roboter als Werkzeug Zusätzlich zu den vordefinierten Inhalten sollen die Teilnehmer am Robotikum begleitend ein Abschlussprojekt – vorzugsweise im Team – entwickeln und am dritten Tag des Robotikums vorstellen (siehe Abschnitt V.10). V.6.3 Erweiterungen Die Kombination von Online-Vorkurs (RoboBase) und Präsenz-Schulung (Robotikum) sorgt nicht nur für eine effiziente Vermittlung der benötigten Inhalte und ermöglicht so ein intensives Üben am Roboter, sondern es entstehen dadurch neue Möglichkeiten für die schulische Bildung in allen Phasen: Schule – Hochschule – Referendariat – Weiterbildung. V.6.3.1 Mit RoboSchool in die schulische Bildung Für Schulen kann das bisher vorgestellte RoboBase – Robotikum-Konzept 1-zu-1 übernommen werden. Einzig die Anforderungen an die jeweilige inhaltliche Tiefe muss an die jeweilige Lernergruppe angepasst werden und, es sollten die seit 2019 durch den Fachhandel ausgelieferten NAO.V6 Roboter eingesetzt werden. Bei den bisherigen mehr als 20 mit Marburger Schulklassen durchgeführten Robotik-Schulungen (noch ohne Online-Vorkurs Robo- Base) war auffällig, dass bei den Mädchen stets viel Arbeit in die Dialogfähigkeit und die Körperanimationen des Roboters gesteckt wurde, während die Jungen sich zumeist weniger für Dialoge interessieren und stattdessen mehr an der Fortbewegung oder an komplexen Körperbewegungen der Roboter interessiert waren. Diese Präferenzen zeigen sich auch in den bisherigen Projekten, in denen der Roboter schon nach wenigen Stunden einfache Dialoge ausführen oder in zeitintensiveren Anwendungen komplexe Aktionen durchführen kann. [V.V.3] 171 RoboPraX Typische Abschlussprojekte im Rahmen der schulischen Ausbildung sind daher Ratespiele, gymnastische Übungen mit dem Roboter oder einfache Projekte, die die Objekterkennungsfähigkeit des Roboters nutzen. V.6.3.2 Mit RoboTeach in die Lehrerbildung Zur Vorbereitung künftiger Lehrer auf die in den Schulen immer populärer werdenden Maker-Spaces mit NAO-Robotern wurde 2019 das RoboPraX-Lehr- und Lernkonzept an die Bedarfe des Lehramtsstudiums angepasst und mit „RoboTeach“ ein spezielles Medienmodul eingerichtet. Es wird als Äquivalent zum Pflichtmodul „Neue Medien in der Lehrerbildung“ im Studiengang „Englisch Lehramt an Gymnasien“ an der Philipps-Universität Marburg anerkannt und wie folgt mit insgesamt sechs Leistungspunkten abgerechnet: Teilmodul Leistungspunkte Leistung RoboBase 4 Kurszertifikat, PräsenzteilnahmeRobotikum Robo-Projekt 2 Projekteinreichung Abb. V.13: Das Medienmodul „RoboTeach“ Auch RoboTeach nutzt den Online-Vorkurs „ RoboBase “ – je nach eingesetztem NAO-Typ RoboBase.V5.01 oder RoboBase.V6.01 (siehe Abb. V.10), also den passenden Kurs für die Zielgruppe „Oberstufe“. Die Online-Lerneinheiten von RoboBase gilt es, in den ersten vier Semesterwochen durchzuarbeiten. Anschließend findet an vier Tagen das jeweils 4-stündige „Robotikum“ statt. Am Ende des Kurses steht das schon während der Laufzeit des Kurses definierte und bearbeitete Roboter-Projekt. Die Idee, das Modul RoboTeach mit einem benoteten Roboter-Projekt abzuschließen und [V.V.4] 172 Humanoide Roboter als Werkzeug dieses öffentlich vorzuführen, hat sich als Volltreffer erwiesen. Das im Vergleich zu den RoboSchool-Projekten erheblich anspruchsvollere Projekt soll dabei folgende Kriterien erfüllen: • Das Programm läuft flüssig. • Das Programm beinhaltet einen Dialog. • Der Roboter bewegt sich fort. • Die Sensorik des Roboters wird verwendet. • Der Roboter führt eine Körperanimation aus. Zusätzlich müssen eine Flowchart und ein semantisches Skript zur Verdeutlichung der Programmlogik erstellt werden. Im Wintersemester 2019/20 wurden u. a. folgende Abschlussprojekte von den Lehramtsstudenten im Kurs RoboTeach angefertigt und öffentlich auf den NAO-Robotern des RoboPraX-Teams vorgeführt:38 1. RoboForJob – „Didi“ im Bewerbungsgespräch Der NAO-Roboter „Didi“ simuliert ein Vorstellungsgespräch und demonstriert dabei seine Fähigkeiten in verschiedenen Schulfächern: z. B. durch gymnastische Übungen im Fach Sport oder durch Bilderkennung und –besprechung im Fach Kunst. Die Anwendung ist als humoristische Darbietung entwickelt und mit zahlreichen selbstentwickelten Körperanimationen gekoppelt. 2. WordTrainer – NAO bespricht Vokabeln Der Roboter dient im Primarstufenunterricht als Vokabeltrainer mit zwei ausgewählten Wortschatzgruppen: a) zum Thema „Körper des Menschen“ und b) zum Thema „Nahrung“ (Obst und Gemüse). Beim Thema „Körper“ zeigt er auf seine eigenen Gliedmaßen und 38 Das RoboPraX-Team verfügt über sieben NAO-Roboter: Die V5-Typen „Nao“, „Didi“, „Dodo“ und „Miki“, sowie die V6-Typen: „Cody“, Luca“ und „Toni“. 173 RoboPraX Körperteile, beim Thema „Nahrung“ operiert er per Bilderkennung. Beide Themenkomplexe werden mit einem Quiz abgeprüft. 3. RoboCook – NAO bespricht Kochrezepte NAO erkennt Zutaten zu Kochrezepten per Bilderkennung und ordnet sie Kochrezepten zu, die er dann im Dialog bespricht. Programmbeginn und –ende erfolgen über NAOs Körpersensoren. 4. GeoBot – „Didi“ erklärt geometrische Formeln Der NAO-Roboter „Didi“ erklärt mündlich oder per Körperanimation verschiedene geometrische Objekte, wie Quadrate, Kreise etc. und bespricht deren Berechnungsoptionen. Die Objekte identifiziert er per Bilderkennung und berechnet anhand dessen deren Fläche. 5. LabRobo – „Dodo“ hilft im Fach Chemie In diesem Projekt übernimmt der NAO-Roboter „Dodo“ die Sicherheitseinweisungen im Chemielabor im Dialog oder per Interpretation erkannter Piktogramme. Er erkennt und analysiert so die Gefahren, die von bestimmten Stoffen und Prozessen ausgehen. In den Ablauf sind passende Bewegungen und Animationen eingebaut. Neben dem ‚normalen‘ Ziel der RoboPraX-basierten Robotik-Ausbildung, Lehramtsstudenten durch neue Vermittlungskonzepte (Inverted Classroom) an die digitalen Herausforderungen in ihrem zukünftigen Beruf und darüber hinaus vorzubereiten, geht es in RoboTeach auch um allgemeine Aspekte der Digitalisierung (Datenorganisation, Datensicherheit, Lizensierungsmodelle, Medientechnik, Multimedia, Künstliche Intelligenz), die Dank der eingesetzten Roboter nicht nur theoretisch sondern auch praktisch erfahren werden können. 174 Humanoide Roboter als Werkzeug NAO als Unterrichtswerkzeug Ein weiteres Projekt, in dem NAOs Fähigkeiten als Werkzeug im Rahmen des Lehramtsstudiums genutzt wurden, wurde in der Lehrveranstaltung „Varieties of English“ realisiert. Hier nutzten die Teilnehmer ein vom RoboPraX-Team entwickeltes Dialog-Template für NAO, um im Twitter-Format (280 Zeichen) linguistische Definitionen zu entwickeln, auf dem Roboter zu speichern und bei Bedarf abzurufen. Dadurch wurden die Studenten auf der einen Seite zu kurzen, kompakt formulierten Definitionen angehalten, und es mussten bestimmte Dialogelemente auf dem NAO-Roboter, wie z. B. Sprechtempo, Betonung oder Sprechpausen oder bestimmte Körperanimationen, hinzugefügt werden. So entwickeln die Kursteilnehmer im Robotikum, dem zentralen Teil von RoboTeach, die für die Mensch-Maschine-Kommunikation benötigten Dialogprinzipien, sie verstehen, wie sich Maschinen bewegen, wie sie Objekte erkennen und die erkannten Daten auswerten. Sie begreifen, wie komplexe Handlungen algorithmisch gesteuert werden. Zusätzlich lernen sie die dazu benötigten Datenpakete zu organisieren und vor dem Hintergrund bestehender Urheberrechtsreglungen zu nutzen. Das RoboPraX-Maker-Space-Konzept realisiert diese Aspekte in angemessener und auf zeitgemäße Weise. V.6.4 RoboPraX – eine Zwischenbilanz Zum Zeitpunkt der Drucklegung dieses Buches kann konstatiert werden: Das RoboPraX-Konzept ist auf einem guten Weg. Sowohl die schulische Version RoboSchool als auch die für das Lehramt relevante Variante RoboTeach funktionieren im Alltagsbetrieb. Allerdings gibt es auch eine Reihe von Herausforderungen. 175 RoboPraX So ist trotz erster Schritte die Zielgruppenproblematik bei weitem noch nicht gelöst. Es hat sich herausgestellt, dass die grobe Unterteilung in Unter- und Mittelstufe auf der einen und Oberstufe/Lehramt auf der anderen Seite nicht granular genug ist, um den unterschiedlichen Bedürfnissen der Lerner gerecht zu werden. Und auch der Geschlechterunterschied ist bis heute nicht hinreichend repräsentiert. Hier sind zunächst weitere Untersuchungen notwendig (RoboEval) und danach entsprechende Anpassungen (RoboFit) an den Lehr-/ Lernmodulen, z. B. durch Erstellung weiterer RoboBase-Varianten, vorzunehmen. Ein zweites Problem für dieses Maker-Space-Konzept ist eine nachhaltige Verbreitung über einzelne ausgewählte Schulen hinaus. Immerhin sind die ca. 40.000,– €, die für die technische Infrastruktur dieses Lehr-/Lernkonzepts bereitzustellen sind, keine Kleinigkeit, und so manche Institution wird daher trotz der sozialen Fähigkeiten von NAO-Robotern kostengünstigere Varianten mit einfachen, auch nichthumanoiden Robotern, z. B. mit LEGO-Mindstorms, bevorzugen. Das wohl größte Problem sind aber nicht die Lerner und auch nicht die bereitzustellende technische Infrastruktur sondern die Lehrer. Ihnen fehlt es in Masse bisher an der notwendigen Ausbildung, um z. B. ein Robotikum zu leiten, und für die Begleitung von Online-Kursen wie RoboBase verfügen sie in der Regel ebenfalls kaum über die notwendige Erfahrung. In ihrer eigenen Aus- und Weiterbildung gibt es bisher keine diesbezüglichen Konzepte und Inhalte.39 Mit Aus- und Weiterbildungskonzepten á la RoboTeach ist zwar ein Anfang gemacht, allerdings ist dies bisher auf wenige Einrichtungen beschränkt und daher nicht flächendeckend. Erst durch Umstellung der Lehrerbildung an den Hochschulen und durch Integration von 39 Eine zusätzliche Herausforderung entstand, als mit Beginn der Corona-Krise die deutschen Schulen ihren Präsenzlehrbetrieb einstellen mussten und somit auch die Durchführung des Robotikums unmöglich wurde. Dadurch wurde die Forschungs- und Entwicklungskomponente von RoboPraX für einen längeren Zeitraum erheblich beeinträchtigt. 176 Humanoide Roboter als Werkzeug Maker-Space-Konzepten in die grundständige Lehrerbildung kann hier Abhilfe geschaffen werden. Um schnelle Lösungen herbeizuführen, bleiben daher zur Zeit nur ausgeklügelte inhaltliche Herangehensweisen, mit denen zielgruppenspezifische Aufgaben, Musterlösungen, Projektideen und Lösungen digital so bereitgestellt werden, dass die Durchführung eines Robotikums prinzipiell jedem Lehrer möglich gemacht wird. Genau das ist der Ansatz von RoboPraX: Die Ermöglichung der Schulung an NAO- Robotern unter Berücksichtigung der jeweiligen Zielgruppe und der Ermöglichung der Leitung durch jeden Lehrer. Dazu wird eine Software-Lösung geschaffen, mit dem Ziel, nach Eingabe und Definition der Zielgruppe, automatisch die zu erledigenden Arbeitsschritte, Aufgaben und Musterlösungen als Handreichungen für die Lehrer und als digitales Arbeitsheft für die Schüler zu erhalten. Abb. V.14: Das zur Zeit noch standardisierte Robotikum Arbeitsheft Ausgehend von den heute für das RoboPraX-Robotikum bereits entwickelten Arbeitsheften (Abb. V.14) werden personalisierte Arbeitshefte, 177 RoboPraX die anhand verfügbarer Lernerdaten (Badges, Vorkenntnisse etc.) automatisch an die einzelnen Lerner angepasst werden, digital bereitgestellt. Durch diese Individualisierung kann passgenau auf die Bedürfnisse der Lerner eingegangen werden. Der den RoboBase-Vorkurs und das anschließende Robotikum betreuende Lehrer erhält die für alle Mitglieder seiner Lernergruppe definierten Aufgaben mit Musterlösungen und Lösungsschritten. Damit ist ein hohes Maß an Individualisierung bei gleichzeitiger optimalen Betreuung gewährleistet. Für die Weiterentwicklung des RoboPraX-Robotikums besteht die berechtigte Hoffnung, dass nicht nur NAO-Roboter mit ihren erstaunlichen Fähigkeiten zur Stärkung des eigenen algorithmischen Denkens eingesetzt werden, sondern möglicherweise weitere Roboter als Partner der Lernbegleiter, z. B. Pepper mit spezifischen CAPs (Abschnitt IV.2.2) in dieses konstruktive und kollaborative Unterrichtsgeschehen mit einbezogen werden. Ein derartig ausgestatteter Maker-Space des 21. Jahrhunderts könnte das in Abb. V.15 gezeigte Aussehen haben. Abb. V.15: Der Maker-Space im 21. Jahrhundert 178 Humanoide Roboter als Werkzeug V.7 Ethische und juristische Fragen Eine besondere Herausforderung im Umgang mit humanoiden Robotern, in welcher Form auch immer, sind ethische und juristische Fragen. Es geht um Aspekte der Verantwortlichkeit und, ggf. auch um Aspekte der Haftung. Diese werden seit 2016 von der deutschen Kultusministerkonferenz neben anderen Aspekten der Medienkompetenz unter den Labels „Datensicherheit“ und „Analysieren und Reflektieren“ geführt. Gerade die Reflektion und Analyse des Umgangs mit und des Einsatzes von Robotern, sowie die Rolle von Künstlicher Intelligenz (KI) im Bildungsalltag bilden daher einen zusätzlichen, wenn auch kleinen, abschließenden Schwerpunkt im RoboPraX- Konzept. Dabei wird auf die Erkenntnisse früherer und laufender Projekte zurückgegriffen. So war es z. B. das Ziel des von 2012 bis 2014 von der Europäischen Kommission geförderten Forschungsprojekts RoboLaw40, ethische und gesetzliche Probleme der Robotik zu diskutieren und Richtlinien für die zukünftige Europäische Regulation derer zu entwickeln. Besonders wurde untersucht, ob die Gesetze der Robotik innerhalb bereits bestehender gesetzlicher Regulationen gefasst werden können, oder ob die Einführung neuer Gesetze erforderlich ist, um die nötigen Regulationen rund um die Robotik umzusetzen. Die Ergebnisse des Projekts zeigen, dass die Frage der Verantwortlichkeit und Haftung wohl das größte und kritischste Thema darstellt. Da auch noch keine spezifischen Gesetze für robotische Applikationen bestehen, ist bisher noch unklar, wer haften soll, falls eine solche Applikation (beispielsweise ein selbstfahrendes Auto oder ein humanoider Roboter) gegen die Gesetzeslage verstoßen oder gar Leben gefährden sollte. 40 Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics. 179 Ethische und juristische Fragen Während im Fall von selbstfahrenden Autos die Versicherung eine logische Haftungsmöglichkeit darstellt, könne dies jedoch nicht auf alle robotischen Applikationen übertragen werden, da diese viele verschiedene Formen annehmen können und individuelle Regulationen benötigen. Da besonders medizinische und pflegerische Roboter eine Anreicherung für den Menschen darstellen, sollten diese laut der Forschung gemeinsam mit pharmazeutischen und genetischen Produkten gruppiert werden und gemeinsam weiterer Forschung unterzogen werden. Das Projekt forderte demnach bereits 2012 eine intensivere Auseinandersetzung mit gesetzlichen und ethischen Aspekten der Robotik. Diese Aspekte erfahren weiterhin eine große Relevanz in der Robotik, da besonders auf Europäischer Ebene noch Lücken bezüglich des Haftungsrechts von robotischen Applikationen bestehen. Das RoboPraX-Lehr-/Lernkonzept sollte daher Erkenntnisse dieser Art integrieren. V.8 Zusammenfassung und Lektüreempfehlungen Die Werkzeugfunktion humanoider Roboter ist mittlerweile zu einer Hauptfunktion vor dem Hintergrund einer modernen digitalen Welt geworden. Im Unterschied zu den in den Kapiteln III und IV vorgestellten Partnerfunktionen sind viele Werkzeug-Anwendungen heute gut erprobt, finanzierbar und unabhängig von spezifischen Lehr-/ Lernkonzepten einsetzbar. Darüber hinaus können sie alters- und zielgruppenübergreifend eingesetzt werden und – was möglicherweise in manchen Regionen noch eine Rolle spielen kann – sie sind unabhängig von Internetzugängen realisierbar. 180 Humanoide Roboter als Werkzeug Lektüreempfehlungen Alves-Oliveira, P., Sequeira, P., & Paiva, A. 2016. The role that an educational robot plays. 25th IEEE International Symposium on Robot and Human Interactive Communication, 817–822. Anwar, S., Bascou, N. A., Menekse, M., & Kardgar, A. 2019. A Systematic Review of Studies on Educational Robotics. Journal of Pre-College Engineering Education Research., 9(2), Article 2. Benitti, F. B. V. 2012. Exploring the educational potential of robotics in schools: A systematic review. Computers and Education, 58(3), 978–988. Khanlari, A. 2013. Effects of educational robots on learning STEM and on students’ attitude toward STEM. 2013 IEEE 5th International Conference on Engineering Education, 62–66. Merdan, M., Lepuschitz, W., Koppensteiner, G., & Balogh, R. (Eds.). 2017. Robotics in education : Research and Practices for Robotics in STEM Education. Switzerland: Springer International Publishing. Mubin, O., Stevens, C. J., Shahid, S., Mahmud, A. Al, & Dong, J.-J. 2013. A Review of the Applicability of Robots in Education. Technology for Education and Learning, 209, 1–7. Pot, E., Monceaux, J., Gelin, R., & Maisonnier, B. 2009. Choregraphe: A graphical tool for humanoid robot programming. IEEE International Workshop on Robot and Human Interactive Communication, 46–51. Wing, Jeanette, M. 2006. Computational Thinking. Communications of the ACM, März 2006/Vol. 49, No. 3: 33–35. Zeaiter, S., & Heinsch, P. (2020). Robotikum – Inverted Makerspace. In G. Brandhofer, J. Buchner, C. Freisleben-Teutscher, & K. Tengler (Eds.), Tagungsband zur Tagung Inverted Classroom and beyond 2020. Norderstedt: Books on Demand GmbH: 174–184. Kultusministerkonferenz. 2016. Bildung in der digitalen Welt. https:// www.kmk.org 181 Zusammenfassung und Lektüreempfehlungen Fragen zur Vertiefung Was spricht für bzw. gegen die Verwendung von NAO-Robotern in Maker-Space-Konzepten? Welche Abschlussprojekte für ein Robotikum mit Mittelstufenschülern mit Fokus auf Mensch-Maschine-Dialog sind denkbar? Warum ist die Erstellung eines Flussdiagramms (engl. Flow-Chart) als Zusatz für ein Roboter-Projekt im Lehramtsstudium so wichtig? 182 Humanoide Roboter als Werkzeug 183 VI Herausforderungen Die Nutzung humanoider Roboter, egal ob als Showcase, Partner oder Werkzeug – so vielversprechend das auch sein mag – birgt eine Reihe von Herausforderungen, die einen Dauereinsatz in vielerlei Hinsicht erschweren. Zwar sind die Herausforderungen je nach Einsatzart unterschiedlich ausgeprägt, sie können aber folgenden generellen Problemgruppen zugeordnet werden: • Bereitstellung und Logistik • Entwicklung • Programmierung Neben diesen Herausforderungen soll abschließend die in Kapitel II angerissene Frage nach der Beziehung zwischen Künstlicher Intelligenz und Robotik erneut aufgegriffen werden. VI.1 Bereitstellung und Logistik Für den Einsatz eines humanoiden Roboters für eigene Zwecke bieten sich drei Optionen an. Man kann • einen Roboter mit den gewünschten Anwendungen kaufen, • einen Roboter kaufen und ihn selbst programmieren, • einen Roboter bauen und weiterentwickeln. Inzwischen bietet sich mit dem Leasing von Robotern eine weitere Option an, die allerdings noch nicht flächendeckend realisiert ist. Genau wie in der Automobilindustrie könnte das Leasing von Robotern immer mehr zu einem Geschäftsmodell werden, das Roboter für Institutionen mit begrenztem Budget für den gewünschten Einsatzzeitraum erschwinglich macht. VI.1.1 Infrastruktur Die Infrastruktur, in der ein Roboter agiert, hängt stark von dessen Einsatz ab. Als Lehrpartner im Seminarraum müssen Roboter beispielsweise jeweils in ihren ‚Arbeitsbereich‘ transportiert werden. Zudem ist es sinnvoll, sie vor ihrem Einsatz in einem sicheren Trainingsbereich zu testen. Werden sie dagegen als Werkzeuge in speziellen Maker-Spaces eingesetzt, befinden sie sich ja in der Regel permanent an ihrem Einsatzort, sodass die Transportfrage gar nicht entsteht. In beiden Fällen benötigen sie aber einen ‚Ruheort‘, an dem sie ihre Batterien aufladen können, und der es den Programmierern gestattet, mögliche Fehler zu beheben oder Änderungen an speziellen Apps vorzunehmen. Dieser Ruheort sollte zusätzlich über einen Testbereich verfügen, in dem sich die Roboter zum Ausprobieren von Bewegungsabläufen nahezu frei und ohne Hindernisse bewegen können und so nah wie möglich an dem Ort sein, an dem der Roboter programmiert und gewartet wird, um die Transportproblematik klein zu halten. Bei der Gestaltung von Maker-Spaces gelten spezielle Anforderungen: Hier sollte eine ausreichende Anzahl von PCs oder Laptops für die einzelnen Trainingsgruppen zur Verfügung stehen, und es sollten freie Bereiche für die Erprobung der Roboterbeweglichkeit geschaf- 184 Herausforderungen fen werden. Zusätzlich sollte im Arbeitsbereich ein einfarbiger Hintergrund zur Verfügung stehen, um Robotern die Objekterkennung zu erleichtern: Das Erkennen von Objekten ist vor derartigen Hintergründen durch die klare Konturierung von Objekten erheblich einfacher. Und um die Roboter vor Beschädigungen zu schützen, sollte man darauf achten, dass der Boden für die Roboter und deren Fortbewegungsmöglichkeiten geeignet ist. Prinzipiell funktionieren Roboter auch ohne Internetzugang. Viele Programme, die auf den Roboter ‚aufgespielt‘ werden, können autonom auch ohne Internetverbindung ausgeführt werden. Mit Internetzugang lassen sich allerdings erheblich komplexere Anwendungen realisieren. Per WLAN können die Roboter Chatbots nutzen, sich mit anderen Plattformen verbinden oder Daten aus web-basierten Datenbanken abrufen. Die im Abschnitt IV.2 vorgestellten Partner-Anwendungen für Pepper-Roboter beispielsweise wären ohne Internetzugang nicht realisierbar. Bei der Nutzung von WLAN sollte allerdings auf den verwendbaren Sicherheitsstandard geachtet werden. So unterstützen Pepper-Roboter bis einschließlich Version 2.5 nicht den sicheren Enterprise-Standard, wie ihn große Firmen und Institutionen verwenden, sondern nur den Personal-Standard. Daher musste z. B. für das Projekt H.E.A.R.T. ein eigenes Roboter-Netzwerk eingerichtet werden. Mit der Pepper-Version 2.9 ist allerdings auch die Unterstützung für den Enterprise-Standard in Pepper integriert worden. VI.1.2 Versicherung und Transport Roboter sind kostenintensiv in der Anschaffung und können anfällig für Schäden sein. Ihre Gliedmaßen und ihre Sensoren können durch Beschädigungen gerade im Dauerbetrieb beeinträchtigt werden, so dass Reparaturen erforderlich werden und zusätzliche Kosten entstehen. Mit einfachen Mitteln lassen sich mittlerweile aber Schäden vermeiden. So bietet die deutsche Firma LPE-Technik mit ihrem 185 Bereitstellung und Logistik „Crashguard“ einen effektiven Fallschutz für NAO-Roboter an, der gerade beim Einsatz im Robotikum bei vielen Schülern Schäden vermeiden hilft. Abb. VI.1 zeigt diesen speziellen Fallschutz, der gerade in Maker-Spaces mit NAO-Robotern von großem Nutzen sein kann. Abb. VI.1: Crashguards for NAO-Roboter Zusätzlich wird aber empfohlen, eine technische Versicherung für die Roboter abzuschließen, um mögliche Reparaturen zu finanzieren. So beträgt beispielsweise die jährliche Versicherungspauschale im Rahmen einer Technikversicherung mit Selbstbeteiligung für einen NAO-Roboter in Deutschland etwa 200 € pro Jahr. Gegenwärtig können sich Roboter nicht frei in unbekanntem Terrain bewegen, und wenn sie es könnten, wären sie viel zu langsam oder könnten nur kurze, ebene Strecken bewältigen. Daher können sie sich nicht selbständig zu ihrem Einsatzort bewegen, sondern müssen dorthin transportiert werden. Kleine Roboter, wie z. B. NAO sind da unproblematisch und können per Koffer, auch als Bordgepäck in Flugzeugen, befördert werden. 186 Herausforderungen Pepper-Roboter sind erheblich schwieriger zu bewegen. Sie benötigen spezielle Transportmittel innerhalb von Gebäuden (z. B. Sackkarren) um an ihre Zielorte gebracht zu werden, und über größere Entfernungen benötigen sie maßgeschneiderte Transportboxen und entsprechend große Transportfahrzeuge. Abb. VI.2 und Abb. VI.3 zeigen typische Transportoptionen für NAO und Pepper. Abb. VI.2: NAO im Transportkoffer, Pepper auf einer Sackkarre Abb. VI.3: Typische Transportbox mit Deckel für Pepper-Roboter 187 Bereitstellung und Logistik Als Folge dieser logistischen Herausforderungen sollte der reguläre Standort des Roboters leicht zugänglich sein. Zum Beispiel ist ein freier Ausgang mit einer Rampe für Pepper-Roboter notwendig, um den Roboter von Ort zu Ort, zum Beispiel vom Entwicklungsbereich zum Einsatzort, zu transportieren. VI.1.3 Bereitstellung Ist der Roboter an seinem Einsatzort angelangt, sind zwei weitere Aspekte zu berücksichtigen. Diese gelten allerdings hauptsächlich für den Einsatz von Pepper-Robotern als Partner. Zum einen ist eine ausreichend große Zeitspanne für die Vorbereitung, das eventuelle Testen und die Platzierung des Roboters zu berücksichtigen. Allein das Hochfahren des Roboters dauert schon einige Minuten, und durch ein ausgiebiges vorheriges Testen an seinem neuen Einsatzort können später möglicherweise auftretende Probleme identifiziert und eventuell noch behoben werden. Abb. VI.4: Pepper mit Lavaliermikrophon und Sender 188 Herausforderungen Sollte der Roboter nicht nur per Dialog gesteuert werden, sondern auch zahlreiche gesprochene Anweisungen an sein Publikum geben, ist für eine Audio-Unterstützung zu sorgen, da der Roboter, gerade vor größeren Gruppen mit mehr als 40 Teilnehmern, nicht von jeder Position im Raum aus gut hörbar ist. Mit einem Headset und einer Audio-Verstärkung über eine externe Audio-Anlage lässt sich hier Abhilfe schaffen (Abb. VI.4). VI.2 Entwicklung Die Roboterentwicklung sollte nicht auf den Schultern eines Einzelnen ruhen. Mit einer Kombination aus Programmierern und fachlich kompetenten Anwendern, z. B. aus dem Finanzwesen, dem Pflegebereich oder dem Bereich Bildung, gelingt es am besten, fachspezifisches, interdisziplinäres und algorithmisches Denken zu kombinieren. Erst wenn es keine Alternative gibt, kann man Programme für NAO- und Pepper-Roboter auch von kommerziellen Software-Entwicklern erwerben. Da diese derzeit jedoch oft nicht auf die inhaltlichen Herausforderungen im gewünschten Bereich spezialisiert sind, ist diese Alternative eher eine Notlösung und wird inhaltlich zumeist auf eher allgemeine Anwendungen beschränkt bleiben. Die Entwicklung digitaler Anwendungen und Szenarien erfordert heute immer auch den Einsatz von Social Media. Plattformen wie Facebook, Instagram, Twitter oder auch YouTube sollten nicht nur als integraler Bestandteil der Entwicklung selbst, sondern auch als Diskussions- und Informationsforen für die Zielgruppen genutzt werden. Über diese Kanäle können zusätzliche Erklärungen gegeben, Fragen gestellt und von den Community-Mitgliedern beantwortet und für neue Entwicklungen genutzt werden. So dient z. B. der YouTube- Kanal des RoboPraX-Projekts nicht nur zur Unterstützung und In- 189 Entwicklung formation zum Projekt selbst, sondern er enthält zusätzlich alle für das NAO-Maker-Space-Konzept notwendigen Lehrvideos. Die Videos sind zudem als CC BY (Creative Commons Attribution) lizenziert, was deren Herunterladen und Wiederverwendung ermöglicht.41 Zusätzlich zu diesen Optionen gibt es bereits frei zugängliche Online-Kurse zum Thema im MOOC-Format. Beispiele sind der Online-Kurs RoboBase, der den NAO-Maker-Spaces vorausgeht (siehe Abschnitt V.6.1) und der vom H.E.A.R.T.-Team entwickelte Robotik- Kurs „Humanoide Roboter in der Bildung“.42 Werden Roboter neu angeschafft, müssen sie zunächst eingerichtet werden. Leider ist die Erst-Installation eines neu erworbenen Roboters nicht so einfach wie die Einrichtung eines Laptop-PCs oder eines Smartphones. Auch wenn man nicht in allen Bereichen der Web- Technologie Experte sein muss, ist ein gewisses Maß an Fachwissen erforderlich. Man muss den Roboter beispielsweise auf der Website des Herstellers registrieren, den Roboter mit dem Internet verbinden, um die gewünschten Sprachpakete zu installieren, die aktuellen Roboter-Apps für das jeweilige Modell herunterladen und den Roboter einsatzbereit machen. Dies erfordert auch die Installation der Entwicklungssoftware auf dem eigenen Computer und die Einrichtung der notwendigen Pfade für jede Bibliothek innerhalb des Computers. Eine hilfreiche Option dabei ist die fachspezifische Community bzw. der Entwicklungsbereich des Anbieters. Ziel der darüber bereitgestellten Angebote ist es, technische und praktische Unterstützung für den Einsatz des Roboters zu leisten.43 41 https://bit.ly/2ON8qLX 42 Beide Kurse werden über die Plattform https://www.oncampus.de/ angeboten. 43 Für NAO- und Pepper-Roboter ist dieser Bereich unter https://developer.softbankrobotics.com/ erreichbar, zusätzlich gibt es ein Online-Forum, in dem man Antworten der Gemeinschaft auf technische oder softwarebezogene Probleme erhalten kann: https://community.ald.softbankrobotics.com/en/content/ welcome-aldebaran. 190 Herausforderungen VI.3 Programmierung Der Einsatz humanoider Roboter erfordert die Entwicklung passgenauer Programme oder „Roboter-Apps“. Für NAO- und Pepper-Roboter gibt es dabei ausgehend von der visuellen Entwicklungsumgebung Choregraphe drei zentrale Möglichkeiten der Pro grammerstellung: • die Blockprogrammierung, • die Blockprogrammierung mit Python-Unterstützung, • die direkte Programmierung. Für die Blockprogrammierung sind nur geringe Programmierfähigkeiten nötig. Man wählt vorgefertigte Bausteine, die Programmboxen, aus, die man mit Inhalten füllen und mit dem nächsten Baustein verknüpfen muss. Hierfür sind keine Programmierkenntnisse nötig, da das Programm einem den Transfer der eingegebenen Daten in ein für den Roboter verständliches Format abnimmt. Durch ein paar Mausaktionen kann man dadurch in kurzer Zeit ein Programm erstellen. Soll z. B. der Roboter eine Begrüßung vornehmen, reicht eine einfache Blockprogrammierung aus, denn schon mit zwei Programmblöcken, den „Programmboxen“ und den erforderlichen Einstellungen erhält man das gewünschte Ergebnis (Abb. VI.5). Abb. VI.5: Blockprogrammierung mit Programmboxen [V.VI.1] 191 Programmierung Eine tageszeitabhängige Begrüßung, z. B. „Guten Morgen“ bis einschließlich zwölf Uhr mittags, ist so aber nicht möglich. Nimmt man mit „Get Date“ eine weitere Programmbox hinzu, ist der Abruf von Datum und Uhrzeit zwar möglich, man erhält allerdings dann als Resultat von „Get Date“ und somit als Eingang in eine erweiterte „Say Text Box“ eine Liste von Werten, die der Roboter dementsprechend auch als Liste vorliest. Abb. VI.6 verdeutlicht diesen Zustand. Werteliste als Resultat von „Get Date“: [2020,3,25,9,35] Abb. VI.6: Blockprogrammierung mit Listenabruf Verfügt man über Programmierkenntnisse, kann man in den einzelnen Programmboxen auch in den Code eingreifen und eigene Erweiterungen oder Modifikationen vornehmen. So wird in unserer kleinen Anwendung erst durch Eingriff in das Python-Skript der „Say Text Box“, z. B. mit einer zusätzlichen Funktion myGetTime, eine ‚vernünftige‘ Ausgabe, in der die Zeit mit dem Tagesabschnitt assoziiert werden kann, möglich (Abb. VI.7). 192 Herausforderungen Script Editor def onInput_onStart(self, p): self.bIsRunning = True self.greeting = myGetTime() try: sentence = "\RSPD=" … sentence += self.greeting … def myGetTime(): myTime = int(time.strftime("%H")) Abb. VI.7: Blockprogrammierung mit Python-Unterstützung Einen Schritt weiter geht die direkte Programmierung. Bei dieser Programmierungsart schreibt man den Code für ein Programm in einer Programmiersprache und muss somit über fortgeschrittene Programmierkenntnisse verfügen, um komplexere Programme entwerfen zu können. Im Fall von Pepper und NAO basieren die Codes auf der Programmiersprache Python. Mit einem kleinen Python-Skript lässt sich das Begrüßungsproblem lösen. # Benötigte Python Bibliotheken import qi import time # Hauptfunktion def main(session): tts = session.service("ALTextToSpeech") tts.setLanguage("German") my_greeting = myGenerateDaytimeGreeting() tts.say(my_greeting) # Zusatzfunktion def myGenerateDaytimeGreeting(): myDayT = ["Guten Morgen","Guten Tag","Guten Abend"] 193 Programmierung myTime = int(time.strftime("%H")) if myTime > 11 and myTime < 18: greeting = myDayT[1] # "Guten Tag" elif myTime >= 18: greeting = myDayT[2] # "Guten Abend" else: greeting = myDayT[0] # "Guten Morgen" return greeting if __name__ == "__main__": # Roboter Variablen robot_ip = "192.168.0.40" port = "9559" # Verbindung zum Roboter aufbauen session = qi.Session() session.connect("tcp://" + robot_ip + ":" + port) # Hauptfunktion aufrufen main(session) Programme wie diese entfalten natürlich große Wirkung, wenn der Roboter einen Menschen auf diese Weise begrüßt, dazu noch per Zufall Körperanimationen ablaufen lässt und per Kopfbewegung seine Kommunikationsfähigkeit untermauert. Doch ist dies auch eine Art Künstliche Intelligenz? VI.4 Robotik und Künstliche Intelligenz Die Begriffe Künstliche Intelligenz (KI), Maschinelles Lernen (ML) sowie Robotik werden von Firmen, Konferenz-Veranstaltern, aber auch in den Medien und von der Politik gleichgesetzt. Entscheider aus verschiedenen Branchen lassen sich gern zusammen mit Robotern ablichten, auch wenn es hauptsächlich um das Thema Künstliche Intelligenz im Allgemeinen und gar nicht spezifisch um das Thema Robotik geht. Pressemeldungen aber auch Meldungen aus der Fachbranche der folgenden Art sind nahezu der Standard: 194 Herausforderungen Darf ich vorstellen? Pepper – der intelligente Roboter aus Bremen Wirtschaftsstandort Bremen Beim „Kiddies Day“ war Pepper mit seiner künstlichen Intelligenz der Hit bei den Kindern. Entrance Robotics Dabei ist das, was viele Menschen als Künstliche Intelligenz betrachten, ja bewundern, zumeist nur die maschinelle Fähigkeit, große Datenmengen schnell und effektiv zu verarbeiten, beispielsweise wenn Computer Schach oder Go spielen. Eine Unterscheidung der oben genannten Begriffe soll zur Klärung beitragen, sodass am Ende nicht jeder NAO- oder Pepper-Roboter mit der Idee einer omnipotenten KI in Verbindung gebracht wird. Denn KI stellt einen Sammelbegriff für viele Disziplinen und eine weit gefasste Umschreibung von wissenschaftlicher Beschäftigung dar, die menschliches Lernen und Denken auf Computer übertragen und diesen damit Intelligenz verleihen sollen. Daher sind maschinelles Lernen und auch große Teile der Robotik Teilgebiete der KI. Im Allgemeinen kann zwischen zwei verschiedenen Arten von Künstlicher Intelligence (engl. Artificial Intelligence, kurz: AI) unterschieden werden: • Schwache KI (engl. weak oder narrow AI): ein KI-System, das für eine klar definierte Aufgabe entwickelt und trainiert wird z. B. virtuelle persönliche Assistenten, Bilderkennungssoftware oder Navigationssysteme. • Starke, auch allgemeine KI (engl. strong oder general AI): ein KI-System mit verallgemeinerten menschlichen kognitiven Fähigkeiten, die dem Menschen ebenbürtig sind oder in mancher Hinsicht sogar übertreffen. Ein derartiges KI-System verfügt über genügend Intelligenz, um eine Lösung zu finden, wenn es mit einer unbekannten Aufgabe konfrontiert wird. 195 Robotik und Künstliche Intelligenz Bis heute ist es noch nicht gelungen, eine auch nur annähernd „starke“ KI zu entwickeln, und deren Realisierung dürfte noch viele Jahre auf sich warten lassen. „Maschinelles Lernen“ ist eine Teildisziplin der KI und befasst sich hauptsächlich mit der Entwicklung von (Lern-) Methoden. Diese Methoden werden für die Lösung unterschiedlichster Probleme herangezogen. Zurzeit ist das Thema „Deep Learning“ von besonderer Bedeutung, aber auch Methoden des statistischen Lernens (der dem Deep Learning vorausgegangene Trend) erhalten nach wie vor viel Aufmerksamkeit. Auch hier befinden sich Forschung und Entwicklung noch am Anfang und die entsprechende KI-Methodik steht NAO oder Pepper noch nicht zur Verfügung. Bleibt noch die Robotik und deren Beziehung zu den Ansätzen der Künstlichen Intelligenz. Eines vorab: mehr als eine schwache KI- Realisierung kann den derzeitigen humanoiden Robotern, egal welchen Typs, nicht attestiert werden. Die Fähigkeit, z. B. Schriftzeichen automatisch erkennen zu können, bedeutet noch nicht, dass ein Roboter anschließend in der Lage wäre, das Geschriebene zu verstehen: Das würde weitere Algorithmen erfordern, die für spezifische Aufgaben trainiert werden müssten (z. B. die Erkennung von Sätzen und ihrer grammatikalischen Struktur, die Extraktion von Themen aus dem Text usw.). Viele der Techniken, die in diesem Buch im Zusammenhang mit den Robotern NAO und Pepper beschrieben wurden, sind im Wesentlichen Beispiele für spezifische Anwendungen der KI, z. B. Beispiel Spracherkennung, Bilderkennung, die Verarbeitung natürlicher Sprache oder die Erkennung von Hindernissen, all das profitiert von den Fähigkeiten in Entwicklung befindlicher KI-Systeme, erhöht natürlich die Fähigkeiten der Roboter und gestattet uns eine einigerma- ßen stabile Interaktion mit ihnen. Während es in jedem dieser Bereiche aufregende Entwicklungen gibt, ist ein weiterer Bereich, in dem die derzeitige Technologie hin- 196 Herausforderungen ter den Erwartungen zurückbleibt, der Bereich des Lernens. Der typische KI-Ansatz des Maschinellen Lernens, besteht ja darin, relevante Daten für die zu lernende Aufgabe zu sammeln und die Modellparameter unter Verwendung dieser Daten zu lernen. Nach dem Training wird das System verwendet, aber dann typischerweise nicht weiter verändert: Der „Lern“-Teil ist unabhängig vom Anwendungsteil. Dies wird als „offline-Learning“ bezeichnet. Die Art des Lernens, die wir als Menschen anwenden, ist allerdings eher ein Online-Lernen, bei dem das Lernen während der Ausführung der Aufgabe stattfindet. NAO und Pepper lernen nur das, was wir Menschen ihnen zeigen: z. B. Objekte, die wir ihnen vor die Kamera halten und entsprechend benennen oder Wege, die sie vorher erkundet und kartographiert haben, also ein reines „Offline-Lernen“. Mit dem maschinellen Lernen als Teilgebiet der Künstlichen Intelligenz hat das nur wenig zu tun, in Maker-Space Anwendungen kann man allerdings sehr gut die Prinzipien des ‚maschinellen‘ Lernens zeigen und verstehen lernen. Es bleibt also die Frage, wie die Funktionalitäten unterschiedlicher KI-Anwendungen zusammengefügt werden können. Wenn ein Roboter zum Beispiel ein wütendes Gesicht wahrnehmen kann, dann können reaktive Verhaltensweisen, wie Zurückweisung oder eine Abwehrhaltung, leicht programmiert werden. Wenn jedoch komplexere Reaktionen erforderlich/gewünscht sind, dann ist eine wesentlich umfangreichere Programmierung erforderlich, einschließlich Logik, Argumentation usw. Hieraus ergibt sich schnell das derzeitige Problem des Mangels an allgemeiner Intelligenz. 197 Robotik und Künstliche Intelligenz Künstliche Intelligenz ist für Sie ein zentrales Zukunftsthema zu dem Sie gerne arbeiten möchten? Sie sind ein erfahrenes Organisationstalent was hochkarätige öffentliche Events und wissenschaftliche Transferformate angeht? Sie brauchen eine interdisziplinäre und dynamische Arbeitsumgebung? Sie haben Lust, ein interdisziplinäres Forschungslabor mit aufzubauen und langfristig erfolgreich zu machen? Dann bekommen Sie hier Ihre Chance genau das zu finden. Projektmanager für das AI & Society Lab gesucht, Quelle: LinkedIn Abb. VI.8: Werbung für das AI & Society Lab Eines sollte daher – als Konsequenz der Ausführungen in diesem Buch – zumindest gegenwärtig unterlassen werden: Die Gleichsetzung von humanoiden Robotern mit einer eher unspezifizierten Künstlichen Intelligenz, wie in Abb. VI.8, einer typischen Anzeige gezeigt. Dort wird der Roboter, wie auch in Abb. II.1 (S. 44) sein Pendant NAO unter dem Label „KI“ genutzt, um uns vorzugaukeln, Pepper, NAO und KI können gleichgesetzt werden. Das ist beileibe nicht der Fall. 198 Herausforderungen VI.5 Zusammenfassung und Ausblick Auf den ersten Blick zahlen sich die Investitionen, die für den Einsatz humanoider Roboter in den verschiedenen in diesem Buch skizzierten Einsatzgebieten getätigt werden müssen, kaum aus. Die logistischen Probleme, der Entwicklungsaufwand und die Kosten sind derzeit überwältigend. Aber war das nicht schon immer beim Ersteinsatz moderner Technologien der Fall? Wollte man z. B. in den 1990er Jahren einen Vortrag mit Power Point halten und seine Folien an die Wand projizieren, sah man sich vergeblich nach Datenprojektoren (auch „Beamer“ genannt) in den Hörsälen deutscher Hochschulen um. Man musste sich entweder selbst versorgen und die damals noch horrenden Anschaffungskosten von vielen Tausend Euro (bzw. damals noch DM) in Kauf nehmen und zudem noch für den Transport dieser oft mehr als 15 kg schweren Geräte sorgen, oder man verzichtete auf die Projektion von vortragsbegleitenden Materialien. In den frühen 2000er Jahren entstand eine ähnliche Situation im Zusammenhang mit der Internetnutzung. Kaum eine Institution konnte damals einen einwandfreien Internetzugang garantieren, schon gar nicht für externe Besucher, die im Rahmen von Vorträgen auf das Internet zugreifen wollten. Um Web-Anwendungen damals auch ohne Internetzugang über den eigenen Laptop zeigen zu können, behalf man sich mit der Simulation eines lokalen Netzes über einen Localhost. Und heute? Gern würde man allerorts Anwendungen auf humanoiden Robotern auch außerhalb der eigenen Einrichtung zeigen. Doch wieder fehlt es an der technischen Unterstützung, in diesem Fall an der Bereitstellung von Robotern außer Haus. Man muss entweder einen eigenen Roboter mitbringen und alle oben genannten logisti- 199 Zusammenfassung und Ausblick schen Probleme in Kauf nehmen oder man verzichtet auf den Robotereinsatz bei eigenen Darbietungen.44 Wir dürfen gespannt sein, ob die Entwicklung genauso weitergeht wie mit der Beamer- und der Internet-Technologie, die heute kein Problem mehr darstellen. Denkbar ist, dass wir in wenigen Jahren keine Roboter mehr zu unseren Zielorten transportieren müssen, sondern die verschiedenen Einrichtungen diese schlicht bereitstellen. Die Roboter werden dann wie im Eingangszitat zu Kapitel II (S. 43) vorausgesagt zu unserer alltäglichen Welt gehören. Doch wiederum gilt das bekannte Zitat der ungleichen Verbreitung: „The future is already here – it’s just not evenly distributed.” (William Gibson, zitiert in „The Economist“, 4. Dezember, 2003.) Humanoide Roboter und die Corona-Krise Während der Anfertigung dieses Buches ‚stolperten‘ die Bildungsinstitutionen gerade in eine tiefe Krise, und es wurde schnell klar, dass klassische Lehrmodelle mit einer synchronen Präsenz aller Beteiligten zumindest für eine gewisse Zeit nicht mehr funktionieren würden. Für die Digitalisierung der Lehre bedeutete dies sicherlich einen gehörigen ‚Push‘, wenn nicht gar einen Zwang, die Lehre endlich ins 21. Jahrhundert zu überführen. Für den Robotereinsatz und auch die Forschung darüber allerdings entstanden nun erhebliche Probleme, da sowohl die Beforschung als auch der Einsatz die gemeinsame physische Präsenz von Menschen und Robotern voraussetzen, diese aber massiv enigeschränkt werden musste. Über die Langzeitfolgen dieses ‚behindernden‘ Aspektes konnte zur Zeit der Drucklegung keine Aussage getroffen werden, es blieb nur die Hoffnung, dass es sich um einen vorübergehenden Effekt handelte. 44 Vorträge und Vorführungen mit NAO- und Pepper-Robotern des Autorenteams außer Haus werden derzeit durch Bereitstellung von Robotern vor Ort durch das Haus SoftBank Robotics unterstützt. 200 Herausforderungen Abschließende Frage zur Vertiefung Wann werden humanoide Roboter menschliche Intelligenz erreicht haben und was bedeutet das für unseren Alltag? 201 Zusammenfassung und Ausblick 203 VII Personen Die folgende Aufstellung erhebt keinen Anspruch auf Vollständigkeit. Sie stellt Persönlichkeiten vor, die im Zusammenhang mit der Robotik und insbesondere mit den Projekten H.E.A.R.T. und Robo- PraX eine zentrale Rolle spielen. Isaac Asimov war ein russisch-amerikanischer Bio-Chemiker und berühmter Science-Fiction-Autor, der besonders durch seine Werke über die Robotik Bekanntheit erlangte. Gemeinsam mit John W. Campbell jr. formulierte er die sogenannten „Roboter-Regeln“: 1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. 2. Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen. 3. Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt. Asimov beschränkte sich jedoch nicht nur auf das Gebiet der Robotik in seinen Werken, sondern verfasste unter anderem auch weitere wissenschaftliche Werke über die Bio-Chemie, in der er 1948 seinen Doktortitel erlangte. Cynthia Breazeal ist Dozentin der Medienkunst und Wissenschaft am Medieninstitut des Massachusetts Institute for Technologies (MIT) und hat dort ebenso die Personal Robots Group gegründet, mit deren Hilfe sie Themen der Sozialen Robotik und deren Einfluss auf das menschliche Leben erforscht. Außerdem hat sie die Firma Jibo, Inc. gegründet, die den ersten Familienroboter entwickelt hat. Sie ist Pionierin der Sozialen Robotik und der Mensch- Roboter-Interaktion und beschäftigt sich besonders mit Themen rund um Autonome Robotik, Künstliche Intelligenz, Mensch- Roboter-Interaktion und Robot Learning. Breazeal hat ihren Bachelor of Science in Elektro- und Computer-Ingenieurswissenschaften 1989 an der University of California erlangt und anschließend ihren Master und Doctor of Science am MIT in Elektroingenieurswissenschaften und Informatik abgeschlossen. David Hanson ist der Gründer von Hanson Robotics, einer Firma, die sich besonders auf das ästhetische Erscheinungsbild von Robotern und Androiden spezialisiert. Hanson weist ein breites Spektrum von Fähigkeiten und Tätigkeiten auf. Von Designtätigkeiten für Disney bis hin zu dem Besitz einer eigenen Robotik Firma: Han- 204 Personen son ist dafür bekannt, die menschlichsten Androiden herzustellen. Hierbei beschäftigt er sich besonders mit ästhetischen Aspekten des Roboterdesigns, aber auch mit der Mensch-Roboter-Interaktion und Machine Learning, sodass der Android nicht nur lebensecht aussieht, sondern sich auch so verhält. Hiroshi Ishiguro ist ein japanischer Robotiker, der sich auf den Bau und die Erforschung von Androiden, besonders Geminoiden, spezialisiert hat. Seine Motivation ist es, durch den Bau von menschen- ähnlichen Robotern den Menschen selbst besser zu verstehen. Außerdem untersucht er die Mensch-Roboter-Interaktion und sein Ziel ist es, die Roboter so gut wie möglich einem Menschen nachempfunden zu bauen, sodass man idealerweise den Menschen kaum noch vom Roboter unterscheiden kann. Sein Forschungsinstitut Intelligent Robotics Laboratory ist an der Universität Osaka in Japan angesiedelt und einige seiner Androiden können bereits in Museen bewundert werden. Raymond Kurzweil ist ein US-amerikanischer Schriftsteller und Erfinder, Leiter der technischen Entwicklung bei Google und Pionier in der Spracherkennung und Sprachverarbeitung. Angefangen mit seiner Firma Kurzweil Music Systems, die er 1983 gründete, begann er, neuartige und hochwertige Synthesizer herzustellen. Außerdem entwickelte er die sogenannte „Reading Machine“, die ein Novum der Sprachausgabe und Textverarbeitung darstellte und erhebliche Fortschritte in Sprachsystemen für Menschen mit Sehbehinderung hervor- 205 Personen brachte. Kurzweil ist außerdem bekannter Pionier des Transhumanismus; er glaubt, dass die Menschheit in den nächsten 30 Jahren eine erhebliche Zunahme der informationstechnologischen Entwicklung erfahren und somit eine Singularität erlangen wird, die eine künstliche Intelligenz und somit eventuelle Unsterblichkeit hervorbringt. Kurzweil wurde bereits von mehreren Präsidenten geehrt und hat mehr als 20 Ehrendoktortitel verliehen bekommen. Masayoshi Son gründete 1981 das Unternehmen SOFTBANK Corp. (jetzt SoftBank Group Corp.) und wurde so der reichste Mann Japans. Innerhalb kürzester Zeit baute er sich ein globales Internetimperium auf, das diverse Mobilfunknetze in den USA und Japan beherrscht. Erst kürzlich erfüllte Son sich dann seinen Kindheitstraum: er möchte seine Firma zu einem führenden Anbieter von intelligenten Systemen und Maschinen machen. Mit dem Kauf des französischen Roboterherstellers Aldebaran im Jahr 2012 begann so die Herstellung von humanoiden Robotern und der Roboter Pepper wurde 2015 erstmals vorgestellt. Mit dem kürzlichen Kauf der Firma Boston Dynamics von Google möchte Son die Robotik noch weiter ausbauen und plant, innerhalb der nächsten 30 Jahre die Robotik als Kerngeschäft der Soft- Bank Group Corp. anzusiedeln. 206 Personen 207 VIII Glossar Ein Algorithmus ist eine endliche Folge gut definierter Anweisungen, die typischerweise eine Reihe von Problemen lösen oder eine Berechnung durchführen können. Ausgehend von einer Anfangseingabe beschreiben die Anweisungen eine Berechnung, die bei Ausführung eine endliche Anzahl genau definierter aufeinanderfolgender Zustände durchläuft und schließlich eine „Ausgabe“ erzeugt. Anthropomorphismus ist die Übertragung menschlicher Merkmale, Emotionen oder Absichten auf nicht-menschliche Wesen. Dies gilt als angeborene Tendenz der menschlichen Psychologie. Während eine künstliche Intelligenz absichtlich mit menschlichen Emotionen programmiert werden könnte, würde sie menschliche Emotionen nicht spontan ohne Zweck entwickeln. Ein Audience Response System (ARS) ist ein Tool, mit dem Teilnehmer eines Live-Meetings (z. B. in einer Lehrveranstaltung an einer Hochschule) auf Fragen des Präsentierenden antworten können. Teilnehmer bekommen Fragen auf ihrem Handy, Tablet oder Laptop angezeigt, die sie dann beantworten. Sowohl die Frage als auch die Antworten werden in der Präsentation des Initiators und auf den Geräten der Teilnehmer angezeigt. Augmented Reality (AR, dt. angereicherte Wirklichkeit) ist eine interaktive Erfahrung einer realen Umgebung. AR wird verwendet, um natürliche Umgebungen oder Situationen zu verbessern und wahrnehmungsmäßig bereichernde Erfahrungen zu bieten. Ein populäres Beispiel ist die Smartphone-App „Pokemon Go“. Die CC BY-Lizenz ist die einfachste Creative Commons Lizenz und verlangt vom Nutzer lediglich die Namensnennung des Urhebers/ Rechteinhabers. Creative Commons selbst ist eine Non-Profit-Organisation, die in Form vorgefertigter Lizenzverträge eine Hilfestellung für Urheber zur Freigabe rechtlich geschützter Inhalte anbietet. Ein Chatbot ist eine Software, über die mit einem digitalen Endgerät ein Gespräch in gesprochener oder schriftlicher Form geführt werden kann. Chatbots werden als als virtuelle Assistenten eingesetzt, wie z. B. Google Assistant oder Amazon Alexa, oder sie sind in Messaging-Apps, wie z. B. dem Facebook-Messenger zu finden. Digital Badges (auch E-Badges, dt. digitale Abzeichen) sind digitale Indikatoren für Leistung, Fähigkeiten, Qualität oder Interesse, die in verschiedenen Lernumgebungen erworben werden können. Im Allgemeinen werden diese Abzeichen als Belohnungen angesehen, werden jedoch auch zur Zielsetzung, zum Ansehen, zur Statusbestätigung und zur Gruppenidentifikation genutzt. Eine Dystopie ist eine Gemeinschaft oder Gesellschaft, die aus aktueller Sicht unerwünscht oder beängstigend ist und stellt dabei das Gegenteil zu einer Utopie dar. Dystopien spiegeln typischerweise die aktuellen gesellschaftspolitischen Realitäten wider und schaffen Worst-Case-Szenarien als Warnungen für notwendige soziale Veränderungen oder Vorsicht. H5P ist eine Abkürzung für „HTML5 Package“. Dieses Web-Tool erleichtert die Erstellung interaktiver HTML5-Inhalte und erlaubt es, 208 Glossar diese zu teilen und wiederzuverwenden wie beispielsweise interaktive Videos, interaktive Präsentationen, Quizzes, interaktive Zeitleisten und mehr. IBM Watson ist eine künstliche Intelligenz, die in der Lage ist, Fragen in natürlicher Sprache zu beantworten. Entwickelt wurde das Computersystem Watson von IBM und ist nach einem früheren IBM Präsidenten benannt. Das Unternehmen beabsichtigt, Watson künftig in verschiedenen informations-intensiven Bereichen wie Telekommunikation, Finanzdienstleistungen und Regierung einzusetzen. Der Inverted Classroom ist eine Unterrichtsmethode, in der die üblichen Aktivitäten, Inhaltsvermittlung und Inhaltsvertiefung zeitlich verschoben werden. Die Inhaltsvermittlung ist nun selbstgesteuert, die Inhaltsvertiefung findet im physikalischen Lernraum statt. Konstruktivismus ist eine Theorie – basierend auf Beobachtung und wissenschaftlichen Studien darüber, wie Menschen lernen. Sie besagt, dass Menschen ihr eigenes Verständnis und Wissen über die Welt aufbauen, indem sie Dinge erleben und über diese Erfahrungen nachdenken. Künstliche Intelligenz (KI) ist eine maschinen-basierte Intelligenz, die ihre Umgebung wahrnimmt und Maßnahmen ergreift, um Aufgaben eigenständig erfolgreich zu lösen. Umgangssprachlich wird der Begriff „Künstliche Intelligenz“ häufig verwendet, um Maschinen (oder Computer) zu beschreiben, die kognitive Funktionen nachahmen, die Menschen mit dem menschlichen Geist verbinden, wie z. B. „Lernen“ und „Problemlösen“. Ein LMS (Learning Management System) ist ein komplexes Content- Management-System, das der Bereitstellung von Lerninhalten und 209 Glossar der Organisation von Lernvorgängen dient. Das weltweit bekannteste LMS ist Moodle. Localhost ist ein Host-Name, der „dieser Computer“ bedeutet. Es wird verwendet, um über die Loopback-Netzwerkschnittstelle (bezieht sich auf das Weiterleiten von elektronischen Signalen, digitalen Datenströmen oder Flüssen von Elementen zurück zu ihrer Quelle), auf die Netzwerkdienste zugreifen zu können, die auf dem Host ausgeführt werden. Praktisch bedeutet das die Simulation eines Netzwerk-Hosts auf einem lokalen PC. Microsoft Azure ist eine seit 2010 verfügbare Cloud-Computing-Plattform von Microsoft mit Anwendungen und Datenbanken, die netzbasiert genutzt werden können. Azure richtet sich in erster Linie an Softwareentwickler. Ein MOOC oder Massive Open Online Course Online-Kurs zielt auf unbegrenzte Teilnahme und offenen Zugang über das Internet ab. Inhalte sind Lernvideos und Texte, gepaart mit einfachen elektronischen Tests. Viele MOOCs bieten zusätzliche interaktive Foren an, um die Interaktion zwischen den Kursteilnehmern zu ermöglichen. Ein QR-Code (Quick Response Code) ist ein Barcode oder ein maschinenlesbares optisches Etikett, das Informationen zu dem Artikel enthält, an dem er angebracht ist. Ein QR-Code besteht aus schwarzen Quadraten, die in einem quadratischen Raster auf weißem Hintergrund angeordnet sind und von einem Bildgebungsgerät wie einer Kamera gelesen werden können. Tele-Operation ist der Betrieb einer Maschine aus der Ferne. Es wird am häufigsten mit Robotik und mobilen Robotern in Verbindung ge- 210 Glossar bracht, kann jedoch auf eine ganze Reihe von Umständen angewendet werden, bei denen eine Maschine von einer Distanz operiert wird. Der Virtual Linguistics Campus (VLC) ist die weltweit größte digitale Lernplattform im Bereich der Linguistik. Der VLC bietet mehr als 250 vollständig zertifizierte Sprachkurse und Kursmaterialien für die theoretische und angewandte Linguistik an, die von Einführungskursen wie Phonologie, Morphologie, Syntax und Semantik bis zu hochspezialisierten Kursen wie „Die Verwendung von Englisch in Texten“ und „Massive Open Online Courses“ (MOOCs) reicht. Virtual Reality (VR, dt. virtuell = nicht in Wirklichkeit vorhanden, aber echt erscheinend) ist eine simulierte Erfahrung, die der realen Welt ähnlich oder völlig anders sein kann. Derzeit verwenden Standard- VR-Systeme primär VR-Headsets. VR wird am häufigsten von der Unterhaltungsindustrie bei Videospielen oder im 3D-Kino verwendet. 211 Glossar IX Quellen IX.1 Print-Referenzen Alves-Oliveira, P., Sequeira, P., & Paiva, A. 2016. The role that an educational robot plays. 25th IEEE International Symposium on Robot and Human Interactive Communication, 817–822. Anwar, S., Bascou, N. A., Menekse, M., & Kardgar, A. 2019. A Systematic Review of Studies on Educational Robotics. Journal of Pre-College Engineering Education Research., 9(2), Article 2. Bainbridge, W. A., Hart, J. W., Kim, E. S., & Scassellati, B. 2011. The benefits of interactions with physically present robots over video-displayed agents. International Journal of Social Robotics, 3, 41–52. Belpaeme, T., Kennedy, J., Ramachandran, A., Scassellati, B., & Tanaka, F. 2018. Social robots for education: A review. Science Robotics, 3(21), 1–10. Ben-Ari, M., & Mondada, F. 2018. Robots and Their Applications. In Elements of Robotics (pp. 1–20). https://doi.org/10.1007/978-3-319-62533-1_1. Benitti, F. B. V. 2012. Exploring the educational potential of robotics in schools: A systematic review. Computers and Education, 58(3), 978–988. Breazeal, Cynthia. 2003. Toward sociable robots. Robotics and Autonomous Systems, 42(3–4), 167–175. Bushweiler, Kevin. 2020. Teachers, the Robots Are Coming. But That’s Not a Bad Thing. EducationWeek, January 7,2020. https://bit.ly/2WtkJBj; Zugriff 21.3.2020. Cooper, Martyn, Keating, David, Harwin, Wiliam & Dauten-hahn, Kerstin. 1999. Robots in the classroom – tools for accessible education. In Assistive Technology on the Threshold of the New Millennium (S. 448–452), Assistive Technology Research Series, 6, Düsseldorf: IOS Press. Craig, John J. 2014. Introduction to Robotics: Mechanics and Control. (3. Auflage). Essex: Prentice Hall International. 213 Fernández-Llamas, C., Conde, M. A., Rodríguez-Lera, F. J., Rodríguez-Sedano, F. J., & García, F. 2018. May I teach you? Students’ behavior when lectured by robotic vs. human teachers. Computers in Human Behavior, 80, 460–469. Handke, Jürgen. 2014. Patient Hochschullehre – Vorschläge für eine zeitgemäße Lehre im 21. Jahrhundert. Marburg: Tectum Verlag. Handke, Jürgen. 2014b. The Inverted Classroom Mastery Model – A Diary Study. In: Eva Großkurth/Jürgen Handke (Hrsg.).The Inverted Classroom Model. Konferenzband zur 3. ICM Fachtagung in Marburg 2013. München: Oldenbourg Verlag: 15–35. Handke, Jürgen. 2020. Handbuch Hochschullehre Digital. Eine Anleitung. Baden-Baden: Nomos Verlag. 3. Auflage. Handke, Jürgen/Heinsch, Patrick. 2020. Humanoid Robots in Digital Teaching and Learning. In: Journal on Excellence in College Teaching. Miami University. Oxford Ohio. Kajita, Shuuji/Hirukawa, Hirohisa/Harada, Kensuke/Yokoi, Kazuhito. 2016. Introduction to Humanoid Robotics. Berlin: Springer Verlag. Kanda, Takayuki/Hirano,Takayuki/Eaton, Daniel/Ishiguro, Hiroshi. 2004. Interactive robots as social partners and peer tutors for children: a field trial. Human-Computer Interaction. Volume 19, Issue 1, June 2004. Keller, Birte/Baleis, Janine/Starke, Christopher/Marcinkowski, Frank. 2020. Machine Learning and Artificial Intelligence in Higher Education: A Stateof-the-Art Report on the German University Landscape. (erscheint, zur Zeit: Heinrich-Heine-Universität Düsseldorf). Kennedy, J., Baxter, P., & Belpaeme, T. 2015a. Comparing Robot Embodiments in a Guided Discovery Learning Interaction with Children. International Journal of Social Robotics, 7(2), 293–308. Khanlari, A. 2013. Effects of educational robots on learning STEM and on students’ attitude toward STEM. 2013 IEEE 5th International Conference on Engineering Education, 62–66. Korn, Oliver. 2019. Soziale Roboter – Einführung und Potenziale für Pflege und Gesundheit. Wirtschaftsinformatik & Management, Vol. 11. Berlin: Springer Verlag: 126–135. 214 Quellen Korn, Oliver., Bieber, G., & Fron, C. 2018. Perspectives on social robots. From the historic background to an experts’ view on future developments. ACM International Conference Proceeding Series, (June), 186–193. Kwak, S. S. 2014. The Impact of the Robot Appearance Types on Social Interaction with a Robot and Service Evaluation of a Robot. Archives of Design Research, 27(2), 81–93. Lee, K. M., Peng, W., Jin, S. A., & Yan, C. 2006. Can robots manifest personality?: An empirical test of personality recognition, social responses, and social presence in hu-man-robot interaction. Journal of Communication, 56(4), 754–772. Merdan, M., Lepuschitz, W., Koppensteiner, G., & Balogh, R. (Eds.). 2017. Robotics in education : Research and Practices for Robotics in STEM Education. Switzerland: Springer International Publishing. Mubin, O., Stevens, C. J., Shahid, S., Mahmud, A. Al, & Dong, J.-J. 2013. A Review of the Applicability of Robots in Education. Technology for Education and Learning, 209, 1–7. Pal, S., & Singh, D. 2019. Chatbots and virtual assistant in Indian banks. Industrija, 47(4), 75–101. Pot, E., Monceaux, J., Gelin, R., & Maisonnier, B. 2009. Choregraphe: A graphical tool for humanoid robot programming. IEEE International Workshop on Robot and Human Interac-tive Communication, 46–51. Russell, Stuart J./Peter Norvig, Peter. 2010. Artificial Intelligence: A Modern Approach. (3rd ed.). Ney York: Prentice-Hall. Sullins, J. P. 2012. Robots, love, and sex: The ethics of building a love machine. IEEE Transactions on Affective Computing, 3(4), 398–409. Wannemacher, Klaus und Mitarbeiterinnen. 2016. Digitale Lernszenarien im Hochschulbereich. Hochschulforum Digitalisierung, Arbeitspapier #15. Wing, Jeanette, M. 2006. Computational Thinking. Communications of the ACM, März 2006/Vol. 49, No. 3: 33–35. Zeaiter, S., & Heinsch, P. (2020). Robotikum – Inverted Makerspace. In G. Brandhofer, J. Buchner, C. Freisleben-Teutscher, & K. Tengler (Eds.), Ta- 215 Print-Referenzen gungsband zur Tagung In-verted Classroom and beyond 2020. Norderstedt: Books on Demand GmbH: 174–184. Kultusministerkonferenz. 2016. Bildung in der digitalen Welt. https://www. kmk.org. IX.2 Internet-Referenzen [INT1] How Robotics Will Change Our World. 2017. Technative. https://bit. ly/2FAHvNH, Zugriff 8.1.2020. [INT2] Dang, Sanjit Singh. 2019. Artificial Intelligence in Humanoid Robots. 2019. Cognitive World. https://bit.ly/35yC8JN, Zugriff 8.1.2020. [INT3] Robots will never replace teachers but can boost children’s education. 2018. University of Plymouth: ScienceDaily. https://bit.ly/2tAIET0, Zugriff 8.1.2020. [INT4] Allen, John. R. 2019. Why we need to rethink education in the artificial intelligence age. Brookings. Washington DC. https://brook.gs/2T3ebY9; Zugriff 8.1.2020. [INT5] Hetkämper, Robert. 2016. Japan: Der Roboter als Partner. https://www. daserste.de/information/politik-weltgeschehen/weltspiegel/videos/japander-roboter-als-partner–100.html, Zugriff 18.2.2020. [INT6] Kaiser, Arvid.2017.Banker arbeiten wie Roboter? Aber doch nur in Indien! https://www.manager-magazin.de/unternehmen/banken/deutsche-bank-banker-unbeeindruckt-von-roboter-drohung-a–1166800.html, Zugriff 18.2.2020. [INT7] Byford, 2015. Sam My bank is now staffed by a helpful robot. The Verge: https://www.theverge.com/2015/4/21/8460841/nao-robot-ufj-bank-japan, Zugriff 21.2.2020. [INT8] Denic, Darko. 2017. Presentational Parameters of Human-Robot Interaction. MA Thesis. UMR. https://www.researchgate.net/project/Presentational-Parameters-of-Human-Robot-Interaction, Zugriff 6.1.2020. 216 Quellen [INT9] Merkur. 2017. Mit Pep(per) auf Kreuzfahrt – Costa setzt Roboter ein. https://www.merkur.de/leben/mit-pep-per-auf-kreuzfahrt-costa-setzt-roboter-ein-zr–7330767.html, Zugriff 23.2.2020. [INT10] Kookhulp in de keuken, maar dan met kunstmatige intelligentie, Reformatorisch Dagblad, 04 Mar 2020. https://www.rd.nl/meer-rd/wetenschap-techniek/kookhulp-in-de-keuken-maar-dan-met-kunstmatigeintelligentie–1.1636340, Zugriff 5.3.2020. IX.3 Video-Referenzen Kapitel I: [V.I.1] Die Geschichte der humanoiden Roboter, Next Robotics https://youtu.be/HhIwPEeqmmw Zugriff: 7.1.2020 [V.I.2] CGI DES GRAUENS – Das ist das Uncanny Valley! Die Filmfabrik https://youtu.be/Hxu9OYesTe8 Zugriff: 7.1.2020 [V.I.3] Mein Zwilling ist ein Roboter, BILD TV, https://bit.ly/37EoyWD Zugriff: 7.1.2020 [V.I.4] RoboBase.001 – Humanoide Roboter sprechen. Educational Robotics https://youtu.be/qg-wafmLGXM Zugriff: 7.2.2020 [V.I.5] RoboBase.002 – Humanoide Roboter im Dialog. Educational Robotics https://youtu.be/fRDTpGGU8_Y Zugriff: 7.2.2020 217 Video-Referenzen [V.I.6] RoboBase.004 – Humanoide Roboter zeigen Gefühle. Educational Robotics https://youtu.be/6uI1GgQBHP8 Zugriff: 7.2.2020 [V.I.7] RoboBase.005 – Humanoide Roboter bewegen sich fort. Educational Robotics https://youtu.be/n7ja9jWcNDA Zugriff: 7.2.2020 [V.I.8] Highlights – Robocup 2018, HTWK Robots https://youtu.be/pmFKoKtRW6s Zugriff: 7.1.2020 [V.I.9] K.O. durch KI? Terra X Lesch & Co https://youtu.be/IuVmd1USAFU?t=495 Zugriff: 7.1.2020 [V.I.10] So können Roboter fühlen!, Wirtschaftsagentur Wien, https://youtu.be/9ZeZpR3_fnY?t=12 Zugriff: 7.1.2020 [V.I.11] 10 Neue Roboter, Verrückten Lab https://youtu.be/3lOJvx4rhqE Zugriff: 7.1.2020 [V.I.12] Poppy Humanoid Beta Overview, Poppy Project https://youtu.be/P15V3UwmXnc Zugriff: 7.1.2020 [V.I.13] Introducing DARwIn-OP, VirginiaTech, https://youtu. be/1WEgNQjL66g Zugriff: 7.1.2020 218 Quellen [V.I.14] Robotis-Darwin Mini; Robotischannel, https://youtu.be/TkoLh1o-qhk Zugriff: 7.1.2020 [V.I.15] Professor Einstein – By Hanson Robotics, Robots- The Next Species On Earth, https://youtu.be/oY2qdZ6oL20 Zugriff: 7.1.2020 Kapitel III: [V.III.1] Das japanische Roboterhotel, Galileo. https://youtu.be/IojnBJccpOM Zugriff: 27.2.2020 [V.III.2] Let it be [Pepper days]. Tomomi Ota. https://youtu.be/SHdIbaUS5ls Zugriff: 28.2.2020 [V.III.3] Pflege-Roboter bringt Stimmung in die Bude., faz. https://youtu.be/ M2llXxf5G34 Zugriff: 27.2.2020 [V.III.4] Robots are helping pupils to learn in Finalnd., euronews. https://youtu.be/ q26cHepoYJc Zugriff: 13.3.2020 Kapitel IV: [V.IV.1] H.E.A.R.T. – Der Roboter als Classmate https://youtu.be/9dwQdcEweJc Zugriff: 4.3.2020 219 Video-Referenzen [V.IV.2] The uReply+ Classroom Package for Pepper Robots https://youtu. be/0tOy3JrvVFg Zugriff: 12.3.2020 Kapitel V: [V.V.1] RoboBase.011.V6 – Choregraphe Grundlagen: Educational Robotics https://youtu.be/qlJWDUtMgTk Zugriff: 27.3.2020 [V.V.2] RoboBase Trailer Educational Robotics https://youtu. be/1sTBUyy0EbQ Zugriff: 27.2.2020 [V.V.3] RoboSchool: Komplexe Aktionen. Educational Robotics https://youtu.be/_-ENTIZorcM Zugriff: 20.3.2020 [V.V.4] RoboTeach – Maker-Space im Lehramtsstudium, Educational Robotics https://youtu.be/D2A5mEVAHcY Zugriff: 20.3.2020 Kapitel VI: [V.VI.1] H.E.A.R.T. – Die Programmierung von Robotern; EducationalRobotics https://youtu.be/anU2g7192vA Zugriff: 27.3.2020 220 Quellen IX.4 Bildquellen Alle Bilder, die im Besitz des Herausgebers sind, wurden mit [Q0] referenziert, Bilder mit Creative Commons Lizenzen sind mit den zusätzlich erforderlichen Angaben als [Q1] kenntlich gemacht worden. Kapitel I: Abb. I.1: Nicht-humanoide Roboter – eine Auswahl • Saugroboter ROOMBA. [Q1: Wikipedia] • Drohne. [Q1: publicdomainpictures.net] • Lapraskopie Roboter. [Q1: Wikipedia] • Kuka Industrieroboter. [Q1: Wikimedia Commons] Abb. I.2: Exoskelett zum Treppensteigen. Projekt KI.XOSKELETT, HTWK Leipzig Abb. I.3: Leonardos Ritter. [Q1: Wikimedia Commons] Abb. I.4: Elektro. [Q1: Wikipedia] Abb. I.5: WABOT-1 und WABOT-2. [Q1: Reserachgate] Abb. I.6: ASIMO. [Q1: Commons, wikimedia] Abb. I.7: Humanoide Roboter – Beispiele • Geminoid-DK. [Q1: Wikimedia Commons] • Nadine. [Q0] • NAO. [Q0] Abb. I.8: Humanoide Roboter. [Q0] Abb. I.9: BuSaif, der Android der UAEU. [Q0] Abb. I.10: Das unheimliche Tal (engl. Uncanny Valley). [Q1: Wikipedia] Abb. I.11: Die Androidin (Gynoid) „Sophia“. [Q1: Wikipedia] Abb. I.12: Professor Ishiguro und sein Geminoid. Intelligent Robotics Laboratory, Osaka University, https://bit.ly/2ZUrD2a 221 Bildquellen Abb. I.13: Airskin im Einsatz. [Co Blue Danube Robotics] Abb. I.14: Poppy mit technischen Daten. [Q1: Wikipedia] Abb. I.15: DARwIn-OP mit technischen Daten. [Q1: Wikipedia] Abb. I.16: Darwin Mini mit technischen Daten. [Q1: Wikipedia] Abb. I.17: Professor Einstein mit technischen Daten. [Q1: Wikipedia] Abb. I.18: NAO und seine technischen Daten. [Q0] Abb. I.19: Schnappschuss vom RoboCup 2016. [Q1: Wikimedia Commons] Abb. I.20: Die Kommunikationsfarben von NAO.V6. [Q0] Abb. I.21: Pepper und seine Komponenten. [Q0] Abb. I.22: Der H.E.A.R.T. App-Launcher. [Q0] S. 22: C3PO, Pixabay.com. Kapitel II: Abb. II.1: Die EU-Kommissionspräsidenten mit einem NAO-Roboter. Abb. II.2: Vortrag mit Roboter. [Q0] Abb. II.3: Tele-Operation mit Pepper. [Q1: researchgate.net] Abb. II.4: Eröffnung Jahreskonferenz des ZVEI in Berlin 2017. [Q0] Abb. II.5: Pepper als Hingucker. dpa-tmn/zeh Abb. II.6: NAO und Pepper-Roboter bei BAYER. https://blog.recrutainment.de/2017/11/21/bayer-setzt-humanoide-recruiting-roboter-ein-weltpremiere-auf-dem-absolventenkongress-was-gehtda-ab/ Abb. II.7: Pepper in der Pflege – tanzend. picture alliance / Carsten Rehder. https://www.wn.de/Freizeit/Ratgeber/Familie/Berichte/2818756-Kommunikation-im-Alltag-Roboter-Emmarockt-die-Kieler-Demenz-WG Abb. II.8: Pepper im Einzelhandel – tanzend und verkleidet Abb. II.9: Pepper – Mehr als nur ein Showcase? https://www.munich-airport.com/hi-i-m-josie-pepper–3613413 222 Quellen Abb. II.10: BlessU-2 während einer Segnung. https://www.rtl.de/cms/kirche-wird-digital-roboter-soll-glaeubige-segnen–4245246.html Kapitel III: Abb. III.1: Pepper Parlor Café in Tokyo mit Kunden. Nikkei Asian Review: https://s.nikkei.com/2sTdiqA Abb. III.2: Kunde in Kontakt mit Lakshmi in einer CUB Filiale. inc42, https://inc42.com/buzz/human-vs-humanoid/ Abb. III.3: IRA – „Intelligent Robot Assistant“. Co. Suryakant Niwate, https://www.business-standard.com/article/finance/ Abb. III.4: „Numi“ als Empfangsperson [Q0] Abb. III.5: „Numi“ als Wegweiser [Q0] Abb. III.6: Ein Selfie mit „Numi“ [Q0] Abb. III.7: „Dalli-Klick“ mit „Numi“ [Q0] Abb. III.8: Die Androiden „Harmony“ und „Henry“ https://www.nsmbl. nl/mannelijke-seksrobots–2018/; https://vaaju.com/brazileng/ five-curiosities-about-realbotix-harmony-sexual-robot-robotics/ Abb. III.9: AIBO und PARO. https://www.flickr.com/photos/gotovan/47977301868; PARO [Q1]: https://de.wikipedia.org/wiki/ Datei:Paro_robot.jpg Abb. III.10: Roboter-Einsatz in der Pflege, co. Harald Schreiber, Main Echo, 23.1.2019 Abb. III.11: Rollin’ Justin (Bild: DLR / CC-BY 3.0) Abb. III.12: Bild Pepper mit Kindern [Q0] S. 72: Mitra. https://mitrarobot.com/ 223 Bildquellen Kapitel IV: Abb. IV.1: Das Gerüst der klassischen Hochschullehre, [Q0] Abb. IV.2: Pepper als Inhaltsvermittler [Q0] Abb. IV.3: Das Gerüst der digitalen Hochschullehre, [Q0] Abb. IV.4: Das Inverted Classroom Mastery Modell, [Q0]Abb. IV.5: Das digital-integrative Lehr-/Lernmodel [Q0] Abb. IV.6: Anmeldung beim Roboter/Die Student Advisor App [Q0] Abb. IV.7: Die „Attention-App“ im Einsatz (Robotersicht) [Q1]; Universität der Vereinigten Arabischen Emirate in Al Ain, Dr. Fady Al Najjar Abb. IV.8: „Yuki“ im Quizmaster-Modus [Q0] Abb. IV.9: Individualprüfung mit „Yuki“ [Q0] Abb. IV.10: Bestandteile einer CAP auf dem Smartphone [Q0] Abb. IV.11: „Yuki“ im Seminarraum beim Einsatz einer CAP [Q0] Kapitel V: Abb. V.1: Ein einfacher Maker-Space, [Q1], TU Graz Abb. V.2: Scratch (Screenshot einer einfachen Anwendung) [Q0] Abb. V.3: Choregraphe 2.8.6 [Q0] Abb. V.4: Die NAO-Roboter AG in Niedernhall, https://www.schule-niedernhall.de/nao-roboter-ag-am-bzn Abb. V.5: Der „Robotikum“-Testlauf [Q0] Abb. V.6: Das H.E.A.R.T-Robotikum-Team 2018 [Q0] Abb. V.7: Das Marburger H.E.A.R.T – Robotikum 2018 [Q0] Abb. V.8: RoboPraX – Komponenten und Abläufe [Q0] Abb. V.9: Digital Badges im Kurs RoboBase [Q0] Abb. V.11: Das RoboPraX-Robotikum: 12 Laptops, 3 NAO-Roboter [Q0] Abb. V.12: Der Badge-Status eines ausgewählten Kurses [Q0] Abb. V.14: Das zur Zeit noch standardisierte Robotikum Arbeitsheft [Q0] 224 Quellen Kapitel VI: Abb. VI.1: Crashguards for NAO-Roboter, co. Bildrechte bei Technik-LPE GmbH, Nachnutzung gestattet Abb. VI.2: NAO im Transportkoffer, Pepper auf einer Sackkarre [Q0] Abb. VI.3: Typische Transportbox mit Deckel für Pepper-Roboter [Q0] Abb. VI.4: Pepper mit Lavaliermikrophon und Sender [Q0] Abb. VI.5: Blockprogrammierung mit Programmboxen [Q0] Abb. VI.6: Blockprogrammierung mit Listenabruf [Q0] Abb. VI.7: Blockprogrammierung mit Python-Unterstützung [Q0] Abb. VI.8: Werbung für das AI & Society Lab [Q1] https://www.hiig.de/ projektmanagerin-fuer-das-ai-society-lab-m-w-d/amp; Zugriff 25.2.2020 Kapitel VII: S. 203: Isaac Asimov. [C1: wikimedia.org] S. 204: Cynthia Breazeal [C1: wikipedia.org] S. 205: David Hanson. [C1: wikimedia.org] S. 205: Hiroshi Ishiguro [C1: Wikipedia.org] S. 206: Raymond Kurzweil [C1: wikimedia.org] S. 207: Masayoshi Son [C1: wikipedia.org] 225 Bildquellen Index A AIBO 94, 95 AIRSKIN 24 Algorithmus 142, 207 Android 12, 13, 14, 15, 16, 36, 93, 94, 109, 113, 204, 205 Anthropomorphismus 12, 207 ARiA 95 ASIMO 11, 12 Audience-Response System 123 Augmented Reality 63, 207 B BlessU-2 58, 59, 60 Blockly 148, 152 Blockprogrammierung 191, 192, 193 BuSaif 14, 15 C Chatbot 36, 52, 119, 185, 208 Choregraphe 32, 74, 149, 150, 151, 160, 162, 163, 164, 166, 167, 168, 170, 191 Classroom Application Package 124, 131, 139, 140 CSUnplugged-Initiative 144 D Darwin Mini 27, 28 DARwIn-OP 27 Digital Badges 166, 208 Drohne 4, 5 E Elektro 9 Exoskelett 3, 5 G Geminoid 12, 13, 14, 16, 17, 37, 40, 42, 109, 113, 205 Geminoid-DK 13, 16, 17, 40 Gynoid 13, 16 H Harmony 93 H.E.A.R.T. XIII, XV, XVII, XVIII, XXIV, XXV, 26, 38, 39, 64, 106, 110, 111, 112, 119, 124, 125, 128, 131, 138, 156, 157, 159, 160, 161, 162, 164, 185, 190, 203 Henry 93 I Inverted Classroom XV, 116, 138, 174, 209 Ishiguro, Hiroshi 13, 16, 17, 18, 37, 113, 205 J Java 32, 144, 147 K Kindchenschema 64, 71 Konstruktivismus 141, 209 Künstliche Intelligenz 174, 194, 195, 198, 204, 209 227 Schwache KI 195 Starke KI 195, 196 L Learning-Analytics 118, 122, 138, 140 LEGO-Mindstorms 109, 147, 155, 176 Lehre digital-integrativ 114, 115, 116, 117, 118, 124, 127, 128 klassisch 110, 111, 113, 114, 117, 122, 138, 200 Lerneranalyse 118 Live-Voting 123, 124, 131, 132, 134 Localhost 124, 199, 210 Logo 144 M Maker-Space XII, 141, 143, 144, 145, 146, 147, 153, 172, 175, 176, 177, 178, 182, 184, 186, 190, 197 Maschinelles Lernen 194, 195 offline-Learning 197 Mastery Learning XV, 116, 127 Microsoft Azure 36, 210 Minecraft 148, 149 MINT 145, 146 Mitra 72, 73 N NAO XI, XVIII, 13, 19, 20, 23, 24, 28, 29, 30, 31, 32, 35, 38, 40, 41, 42, 43, 44, 46, 52, 53, 60, 67, 69, 70, 71, 90, 103, 105, 106, 149, 150, 151, 152, 153, 154, 155, 156, 157, 158, 159, 160, 164, 166, 167, 168, 169, 172, 173, 174, 175, 176, 177, 178, 182, 186, 187, 189, 190, 191, 193, 195, 196, 197, 198, 200 NAO.V6 30, 31, 151, 167, 171 Nuance Remote 100 P PARO 94, 95 Pepper 20, 28, 31, 32, 33, 34, 35, 36, 37, 38, 39, 41, 44, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 60, 61, 64, 65, 66, 67, 68, 71, 73, 74, 91, 92, 94, 95, 99, 100, 101, 106, 111, 112, 119, 121, 122, 124, 125, 128, 129, 131, 136, 137, 138, 139, 142, 150, 151, 152, 155, 156, 178, 185, 187, 188, 189, 190, 191, 193, 195, 196, 197, 198, 200, 206 in der Pflege 53, 54, 56, 64, 91, 94, 95, 96, 97 Numi 74, 75, 76, 77, 78, 82, 83, 88, 89 WLAN 46, 119, 129, 132, 159, 160, 185 Pepper-Apps (Co)-Presenter App 125 Attention-App 126, 127, 136 Quizmaster App 128, 129, 131 Student Advisor App 119, 120, 121, 122, 139 Voting Controller App 123 Pingo 123 Poppy 26 Professor Einstein 28 Projekte ARiA 95 H.E.A.R.T. 39, 106, 110, 128, 156 228 Register L2TOR 104 RoboLaw 179 RoboPraX XIII, XV, XVIII, XIX, XX, XXIV, XXV, 91, 134, 146, 156, 161, 162, 163, 164, 165, 167, 168, 172, 173, 174, 175, 176, 177, 178, 179, 180, 189, 203 SMiLE 97 Python 26, 27, 31, 32, 74, 144, 147, 149, 150, 191, 192, 193 Q QR-Code XXIII, 119, 210 R Recruitment 51, 53 RoboBase 163, 164, 165, 166, 167, 169, 171, 172, 176, 178, 190 RoboCops 7 RoboCup 23, 31, 32 RoboSchool 171, 173, 175 RoboTeach 172, 173, 174, 175, 176 Roboter Segensroboter 58 Service-Roboter 2 Soziale Roboter 2, 39, 80 Roboter-Apps Student Advisor App 19, 120, 121, 122, 139 Robotik-Schule 153 Robotikum XII, XIX, XXIV, 156, 157, 158, 159, 160, 161, 162, 164, 166, 167, 168, 169, 170, 171, 172, 175, 176, 177, 178, 182, 186 Rollin’ Justin 97, 98 S Schärfe, Hendrik 40, 113 Scratch 147, 148, 152 Showcase XI, XII, 41, 43, 44, 49, 50, 51, 53, 56, 57, 58, 59, 60, 61, 65, 70, 73, 74, 81, 94, 96, 183 SoftBank Robotics 28, 67, 151, 200 Spracherkennung 20, 21, 73, 196, 205 T Tele-Operation 13, 17, 46, 210 Tethys 151, 152 U Uncanny Valley 14, 15 uREPLY 123, 132, 133, 139 V Virtual Linguistics Campus XV, 118, 129, 211 Virtual Reality 63, 211 Visual Programming Language 147 W WABOT-1 10 Watson 36, 68, 209 Wizard-of-Oz 46 229 Register

Abstract

Humanoid robots are spreading into more and more areas of daily life. But what tasks do they perform and how can they provide us with useful support, especially in educational contexts?

In his introductory book, the German digital pioneer, Prof. Dr. Jürgen Handke, manager of the two well-known robot projects H.E.A.R.T. and RoboPraX, shows how humanoid robots can be used in an increasingly digital world: as simple showcases, as partners in various areas of life, especially in education, or as tools for acquiring and consolidating digital skills. Beyond these applications, the book provides an overview of humanoid robots and a discussion of the challenges of using them in the context of everyday life.

Zusammenfassung

Humanoide Roboter verbreiten sich in vielen Bereichen des täglichen Lebens. Doch welche Funktionen übernehmen sie dabei im Einzelnen? Was können sie für uns leisten und wie können sie speziell das Lehren und Lernen in einer digitalen Welt sinnvoll unterstützen?

Der deutsche Digital-Pionier Prof. Dr. Jürgen Handke, Leiter der Projekte H.E.A.R.T. und RoboPraX, zeigt in seinem einführenden Buch, wie humanoide Roboter gewinnbringend eingesetzt werden können, und diskutiert die verschiedenen Möglichkeiten der Nutzung durch uns Menschen: von einfachen Showcase-Anwendungen über den Einsatz als Partner in verschiedenen Lebensbereichen, speziell in der Bildung, bis hin zur Nutzung als Werkzeug zur Erlangung und Festigung digitaler Kompetenzen.

References
IX Quellen
IX.1 Print-Referenzen
Alves-Oliveira, P., Sequeira, P., & Paiva, A. 2016. The role that an educational robot plays. 25th IEEE International Symposium on Robot and Human Interactive Communication, 817–822.
Anwar, S., Bascou, N. A., Menekse, M., & Kardgar, A. 2019. A Systematic Review of Studies on Educational Robotics. Journal of Pre-College Engineering Education Research., 9(2), Article 2.
Bainbridge, W. A., Hart, J. W., Kim, E. S., & Scassellati, B. 2011. The benefits of interactions with physically present robots over video-displayed agents. International Journal of Social Robotics, 3, 41–52.
Belpaeme, T., Kennedy, J., Ramachandran, A., Scassellati, B., & Tanaka, F. 2018. Social robots for education: A review. Science Robotics, 3(21), 1–10.
Ben-Ari, M., & Mondada, F. 2018. Robots and Their Applications. In Elements of Robotics (pp. 1–20). https://doi.org/10.1007/978-3-319-62533-1_1.
Benitti, F. B. V. 2012. Exploring the educational potential of robotics in schools: A systematic review. Computers and Education, 58(3), 978–988.
Breazeal, Cynthia. 2003. Toward sociable robots. Robotics and Autonomous Systems, 42(3–4), 167–175.
Bushweiler, Kevin. 2020. Teachers, the Robots Are Coming. But That’s Not a Bad Thing. EducationWeek, January 7,2020. https://bit.ly/2WtkJBj; Zugriff 21.3.2020.
Cooper, Martyn, Keating, David, Harwin, Wiliam & Dauten-hahn, Kerstin. 1999. Robots in the classroom – tools for accessible education. In Assistive Technology on the Threshold of the New Millennium (S. 448–452), Assistive Technology Research Series, 6, Düsseldorf: IOS Press.
Craig, John J. 2014. Introduction to Robotics: Mechanics and Control. (3. Auflage). Essex: Prentice Hall International.
Fernández-Llamas, C., Conde, M. A., Rodríguez-Lera, F. J., Rodríguez-Sedano, F. J., & García, F. 2018. May I teach you? Students’ behavior when lectured by robotic vs. human teachers. Computers in Human Behavior, 80, 460–469.
Handke, Jürgen. 2014. Patient Hochschullehre – Vorschläge für eine zeitgemäße Lehre im 21. Jahrhundert. Marburg: Tectum Verlag.
Handke, Jürgen. 2014b. The Inverted Classroom Mastery Model – A Diary Study. In: Eva Großkurth/Jürgen Handke (Hrsg.).The Inverted Classroom Model. Konferenzband zur 3. ICM Fachtagung in Marburg 2013. München: Oldenbourg Verlag: 15–35.
Handke, Jürgen. 2020. Handbuch Hochschullehre Digital. Eine Anleitung. Baden-Baden: Nomos Verlag. 3. Auflage.
Handke, Jürgen/Heinsch, Patrick. 2020. Humanoid Robots in Digital Teaching and Learning. In: Journal on Excellence in College Teaching. Miami University. Oxford Ohio.
Kajita, Shuuji/Hirukawa, Hirohisa/Harada, Kensuke/Yokoi, Kazuhito. 2016. Introduction to Humanoid Robotics. Berlin: Springer Verlag.
Kanda, Takayuki/Hirano,Takayuki/Eaton, Daniel/Ishiguro, Hiroshi. 2004. Interactive robots as social partners and peer tutors for children: a field trial. Human-Computer Interaction. Volume 19, Issue 1, June 2004.
Keller, Birte/Baleis, Janine/Starke, Christopher/Marcinkowski, Frank. 2020. Machine Learning and Artificial Intelligence in Higher Education: A State-of-the-Art Report on the German University Landscape. (erscheint, zur Zeit: Heinrich-Heine-Universität Düsseldorf).
Kennedy, J., Baxter, P., & Belpaeme, T. 2015a. Comparing Robot Embodiments in a Guided Discovery Learning Interaction with Children. International Journal of Social Robotics, 7(2), 293–308.
Khanlari, A. 2013. Effects of educational robots on learning STEM and on students’ attitude toward STEM. 2013 IEEE 5th International Conference on Engineering Education, 62–66.
Korn, Oliver. 2019. Soziale Roboter – Einführung und Potenziale für Pflege und Gesundheit. Wirtschaftsinformatik & Management, Vol. 11. Berlin: Springer Verlag: 126–135.
Korn, Oliver., Bieber, G., & Fron, C. 2018. Perspectives on social robots. From the historic background to an experts’ view on future developments. ACM International Conference Proceeding Series, (June), 186–193.
Kwak, S. S. 2014. The Impact of the Robot Appearance Types on Social Interaction with a Robot and Service Evaluation of a Robot. Archives of Design Research, 27(2), 81–93.
Lee, K. M., Peng, W., Jin, S. A., & Yan, C. 2006. Can robots manifest personality?: An empirical test of personality recognition, social responses, and social presence in hu-man-robot interaction. Journal of Communication, 56(4), 754–772.
Merdan, M., Lepuschitz, W., Koppensteiner, G., & Balogh, R. (Eds.). 2017. Robotics in education : Research and Practices for Robotics in STEM Education. Switzerland: Springer International Publishing.
Mubin, O., Stevens, C. J., Shahid, S., Mahmud, A. Al, & Dong, J.-J. 2013. A Review of the Applicability of Robots in Education. Technology for Education and Learning, 209, 1–7.
Pal, S., & Singh, D. 2019. Chatbots and virtual assistant in Indian banks. Industrija, 47(4), 75–101.
Pot, E., Monceaux, J., Gelin, R., & Maisonnier, B. 2009. Choregraphe: A graphical tool for humanoid robot programming. IEEE International Workshop on Robot and Human Interac-tive Communication, 46–51.
Russell, Stuart J./Peter Norvig, Peter. 2010. Artificial Intelligence: A Modern Approach. (3rd ed.). Ney York: Prentice-Hall.
Sullins, J. P. 2012. Robots, love, and sex: The ethics of building a love machine. IEEE Transactions on Affective Computing, 3(4), 398–409.
Wannemacher, Klaus und Mitarbeiterinnen. 2016. Digitale Lernszenarien im Hochschulbereich. Hochschulforum Digitalisierung, Arbeitspapier #15.
Wing, Jeanette, M. 2006. Computational Thinking. Communications of the ACM, März 2006/Vol. 49, No. 3: 33–35.
Zeaiter, S., & Heinsch, P. (2020). Robotikum – Inverted Makerspace. In G. Brandhofer, J. Buchner, C. Freisleben-Teutscher, & K. Tengler (Eds.), Tagungsband zur Tagung In-verted Classroom and beyond 2020. Norderstedt: Books on Demand GmbH: 174–184.
Kultusministerkonferenz. 2016. Bildung in der digitalen Welt. https://www.kmk.org.
IX.2 Internet-Referenzen
[INT1] How Robotics Will Change Our World. 2017. Technative. https://bit.ly/2FAHvNH, Zugriff 8.1.2020.
[INT2] Dang, Sanjit Singh. 2019. Artificial Intelligence in Humanoid Robots. 2019. Cognitive World. https://bit.ly/35yC8JN, Zugriff 8.1.2020.
[INT3] Robots will never replace teachers but can boost children’s education. 2018. University of Plymouth: ScienceDaily. https://bit.ly/2tAIET0, Zugriff 8.1.2020.
[INT4] Allen, John. R. 2019. Why we need to rethink education in the artificial intelligence age. Brookings. Washington DC. https://brook.gs/2T3ebY9; Zugriff 8.1.2020.
[INT5] Hetkämper, Robert. 2016. Japan: Der Roboter als Partner. https://www.daserste.de/information/politik-weltgeschehen/weltspiegel/videos/japan-der-roboter-als-partner–100.html, Zugriff 18.2.2020.
[INT6] Kaiser, Arvid.2017.Banker arbeiten wie Roboter? Aber doch nur in Indien! https://www.manager-magazin.de/unternehmen/banken/deutsche-bank-banker-unbeeindruckt-von-roboter-drohung-a–1166800.html, Zugriff 18.2.2020.
[INT7] Byford, 2015. Sam My bank is now staffed by a helpful robot. The Verge: https://www.theverge.com/2015/4/21/8460841/nao-robot-ufj-bank-japan, Zugriff 21.2.2020.
[INT8] Denic, Darko. 2017. Presentational Parameters of Human-Robot Interaction. MA Thesis. UMR. https://www.researchgate.net/project/Presentational-Parameters-of-Human-Robot-Interaction, Zugriff 6.1.2020.
[INT9] Merkur. 2017. Mit Pep(per) auf Kreuzfahrt – Costa setzt Roboter ein. https://www.merkur.de/leben/mit-pep-per-auf-kreuzfahrt-costa-setzt-roboter-ein-zr–7330767.html, Zugriff 23.2.2020.
[INT10] Kookhulp in de keuken, maar dan met kunstmatige intelligentie, Reformatorisch Dagblad, 04 Mar 2020. https://www.rd.nl/meer-rd/wetenschap-techniek/kookhulp-in-de-keuken-maar-dan-met-kunstmatige-intelligentie–1.1636340, Zugriff 5.3.2020.

Abstract

Humanoid robots are spreading into more and more areas of daily life. But what tasks do they perform and how can they provide us with useful support, especially in educational contexts?

In his introductory book, the German digital pioneer, Prof. Dr. Jürgen Handke, manager of the two well-known robot projects H.E.A.R.T. and RoboPraX, shows how humanoid robots can be used in an increasingly digital world: as simple showcases, as partners in various areas of life, especially in education, or as tools for acquiring and consolidating digital skills. Beyond these applications, the book provides an overview of humanoid robots and a discussion of the challenges of using them in the context of everyday life.

Zusammenfassung

Humanoide Roboter verbreiten sich in vielen Bereichen des täglichen Lebens. Doch welche Funktionen übernehmen sie dabei im Einzelnen? Was können sie für uns leisten und wie können sie speziell das Lehren und Lernen in einer digitalen Welt sinnvoll unterstützen?

Der deutsche Digital-Pionier Prof. Dr. Jürgen Handke, Leiter der Projekte H.E.A.R.T. und RoboPraX, zeigt in seinem einführenden Buch, wie humanoide Roboter gewinnbringend eingesetzt werden können, und diskutiert die verschiedenen Möglichkeiten der Nutzung durch uns Menschen: von einfachen Showcase-Anwendungen über den Einsatz als Partner in verschiedenen Lebensbereichen, speziell in der Bildung, bis hin zur Nutzung als Werkzeug zur Erlangung und Festigung digitaler Kompetenzen.