KI, die Kreative Intelligenz jetzt in der neuesten Folge SMART&nerdy! Podcastfolge #23.

Roboter im Hörsaal

[vc_row][vc_column][vc_custom_heading text=“Roboter im Hörsaal“ font_container=“tag:h2|font_size:38|text_align:left|color:%23e30613″ use_theme_fonts=“yes“ css=“.vc_custom_1537200426485{margin-top: -25px !important;}“][vc_custom_heading text=“Wie Künstliche Intelligenz in der Hochschullehre eingesetzt wird“ font_container=“tag:h2|font_size:22|text_align:left|color:%23f07d00″ use_theme_fonts=“yes“][vc_column_text]Jürgen Handke, Katharina Weber, Philipps-Universität Marburg [/vc_column_text][vc_custom_heading text=“Kurz und bündig:“ font_container=“tag:h3|font_size:17|text_align:left|color:%23ffffff“ use_theme_fonts=“yes“ css=“.vc_custom_1519747666609{padding-left: 15px !important;background-color: #f07d00 !important;}“][vc_column_text css=“.vc_custom_1537200471914{border-top-width: 1px !important;border-right-width: 1px !important;border-bottom-width: 1px !important;border-left-width: 1px !important;padding-top: 10px !important;padding-right: 10px !important;padding-bottom: 10px !important;padding-left: 10px !important;background-color: #eaeaea !important;border-left-color: #aaaaaa !important;border-left-style: solid !important;border-right-color: #aaaaaa !important;border-right-style: solid !important;border-top-color: #aaaaaa !important;border-top-style: solid !important;border-bottom-color: #aaaaaa !important;border-bottom-style: solid !important;border-radius: 1px !important;}“]Was bis vor kurzem noch undenkbar schien, ist in der Anglistik der Philipps-Universität Marburg Realität: Der Einsatz humanoider Roboter in der Lehre. Welche Rahmenbedingungen dabei eingehalten werden sollten und welche Einsatzszenarien heute schon möglich sind, beschreiben die Autoren auf der Basis erster Ergebnisse im Rahmen ihres Projekts „Humanoid Emotional Assistant Robots in Teaching“ (H.E.A.R.T.).[/vc_column_text][/vc_column][/vc_row][vc_row css=“.vc_custom_1519752670572{margin-top: -10px !important;}“][vc_column][vc_column_text]„Roboter im Hörsaal – geht das überhaupt?“ „Werden Roboter die menschlichen Lehrkräfte ersetzen?“ Diese und andere Fragen werden immer wieder gestellt. Die Antworten lauten dann stets: „Ja, es funktioniert, aber nur unter Einhaltung bestimmter Parameter, doch Ersetzen, nein!“ Diese zentralen Erkenntnisse konnten im Rahmen des seit Mitte 2017 laufenden und vom Bundesministerium für Bildung und Forschung (BMBF) finanzierten Projekts „Humanoid Emotional Assistant Robots in Teaching“ (H.E.A.R.T.) gewonnen werden. Ziel dieses Projektes ist es auszuloten, wie und in welcher Form Roboter in den Lehrbetrieb integriert werden können, sodass Mehrwerte entstehen.[/vc_column_text][ult_dualbutton btn_hover_style=“Style 2″ btn_border_style=“solid“ btn_color_border=“#ffffff“ btn_border_size=“2″ btn_alignment=“left“ dual_resp=“off“ button1_text=“Einzelheft kaufen“ icon_link=“url:https%3A%2F%2Fwww.aws-institut.de%2FSIR%2Fproduct%2Fdigitaler-zwilling%2F|||“ btn1_background_color=“#f07d00″ btn1_bghovercolor=“#e30613″ icon=“Defaults-book“ icon_size=“22″ icon_color=“#ffffff“ icon_hover_color=“#f07d00″ button2_text=“Jetzt abonnieren“ btn_icon_link=“url:https%3A%2F%2Fwww.aws-institut.de%2FSIR%2Fabo%2F|||“ btn2_background_color=“#f07d00″ btn2_bghovercolor=“#e30613″ btn_icon=“Defaults-chevron-right“ btn_icon_size=“22″ btn_icon_color=“#ffffff“ btn_iconhover_color=“#f07d00″ divider_text=“oder“ divider_text_color=“#f07d00″ divider_bg_color=“#ffffff“ btn1_text_color=“#ffffff“ btn1_text_hovercolor=“#ffffff“ btn2_text_color=“#ffffff“ btn2_text_hovercolor=“#ffffff“ title_font_size=“desktop:20px;“ btn_border_radius=“3″ title_line_ht=“desktop:22px;“ btn_width=“280″][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Grundlage für dieses Unterfangen ist allerdings eine Form der Hochschullehre, die sich von klassischen Paradigmen der Vorlesung beziehungsweise des frontalen Vortrags verabschiedet und stattdessen mit zeitgemäßen, digitalen Formaten zur selbstgesteuerten Inhaltserschließung aufwartet. Nach dieser Phase findet eine Präsenzphase statt, die nun nicht mehr der Wissensvermittlung gewidmet ist, sondern durch Kollaboration und Kommunikation neue Möglichkeiten des Kompetenztrainings, des forschenden Lernens oder der Datenrecherche entstehen lässt. Und dabei entsteht ein vollkommen neues Rollenverständnis, in dem Lehrende als Lernbegleiter („coaches“) fungieren und ein hohes Maß an Assistenz aufzeigen. Und genau dabei, so der Ansatz des Projekts H.E.A.R.T., sollen Assistenz- Roboter nicht nur unterstützend wirken, sondern neue Freiräume für die menschlichen Lernbegleiter schaffen.[/vc_column_text][vc_custom_heading text=“Gründe für die Wahl humanoider Roboter“ font_container=“tag:h3|text_align:left“][vc_column_text]Zu Beginn des Projekts war unklar, welche Robotertypen für diese Aufgaben in Frage kommen. Da allerdings nur humanoide Roboter, anders als androide Roboter, über den Handel verfügbar waren, fiel die Wahl auf humanoide Roboter des Typs „Pepper“ von der Firma Softbank Robotics. Diese Entscheidung wurde schon bald durch die Akzeptanz der Studierenden gegenüber diesem neuen ‘Lehrassistenten’ bestätigt. Das mittlerweile auf drei Pepper-Einheiten angewachsene Roboter-Team wird von der überwiegenden Mehrheit der Studierenden als einladend angesehen. Um diese humanoiden Roboter gewinnbringend in der Hochschullehre einzusetzen, sollten folgende ihrer Fähigkeiten effizient ausgenutzt werden:

  • Dialogfähigkeit – zur Ermöglichung des Austausches mit den Studierenden;
  • Emotionalität – für paralinguistische Reaktionen (Gesten, Mimik, etc.);
  • Mobilität – für eine schnelle und flexible Kontaktaufnahme

Zur Realisierung dieser Fähigkeiten verfügen die Pepper-Modelle über verschiedene Sensoren sowie Messverfahren (taktile Sensoren, Abstandssensoren, Kameras). Über ein an der Brust angebrachtes Tablet können zusätzlich Roboter-Applikationen geladen, sowie weitere Informationen (Texte, Bilder, Videos) angezeigt werden Doch all diese primär durch die humanoiden Eigenschaften gekennzeichneten Fähigkeiten reichen für die Übernahme passgenauer Hörsaalassistenz nicht aus. So ist in einem Hörsaal, der mit mehr als 100 Studierenden besetzt ist, das Stimmvolumen des Roboters schlicht zu gering und die Präsentation von Hinweisen und Inhalten auf seinem Tablet sind nur in den ersten Sitzreihen eines klassischen Hörsaals einsehbar. Erst mit einer angemessenen Verstärkung über ein Funkmikrofon sowie der Möglichkeit, die über das Tablet präsentierten visuellen Inhalte mit einer Projektionswand im Hörsaal zu synchronisieren, kann der Roboter wie gewünscht wirken. Der logistische Aufwand zur Einrichtung all dieser Optionen ist dabei aktuell enorm.

Ausgehend von diesen grundlegenden Einsatzparametern können nun passgenaue Roboteranwendungen („robot apps“) entwickelt werden. Mit zwei Anwendungen, die im Rahmen von H.E.A.R.T. entwickelt wurden, wird bereits heute die Hochschullehre unterstützt: Dabei handelt es sich um die “Quizmaster App”, eine unterhaltsame Fragestunde von und mit dem Roboter im Hörsaal oder außerhalb und die “Student-Advisor App”, mit der Studierende im Dialog mit dem Roboter ihren Lernstand besprechen können.[/vc_column_text][vc_single_image image=“7328″ img_size=“large“ add_caption=“yes“ alignment=“center“][vc_custom_heading text=“Die Quizmaster App“ font_container=“tag:h4|text_align:left“][vc_column_text]Mithilfe der Quizmaster App übernimmt der Roboter die Regie über die Studierendengruppe im Hörsaal. Als Quizmaster führt er eine Fragerunde durch, die circa zehn bis fünfzehn Minuten dauert, und ermöglicht so der Lehrperson, sich in dieser Zeit ganz darauf zu konzentrieren, mit den Studierenden individuell zu arbeiten.

Bei der Durchführung des Quiz ist der Roboter so platziert, dass er für die gesamte Seminargruppe gut sichtbar ist. Das Tablet des Roboters wird zur besseren Sichtbarkeit zusätzlich durch ein Screensharing-Verfahren auf der großen Leinwand des Raums angezeigt. Während das Quiz läuft, wird auf dem Tablet beziehungsweise der Leinwand die Frage angezeigt sowie eventuelle Hilfestellungen und Antwortmöglichkeiten mündlich wie visuell gegeben. Außerdem hat der Roboter die verstrichene Zeit im Auge, die zudem auf seinem Tablet angezeigt wird. Die Quizfragen selbst kommen aus den Datenbanken der Lernplattform. Der gesamte Ablauf stellt sich vereinfacht wie folgt dar:

  • Das Quiz wird im Dialog mit dem Roboter vom Lernbegleiter gestartet.
  • Der Roboter stellt eine Aufgabe.
  • Die Studierenden bearbeiten die Aufgabe.
  • Während der Bearbeitung weist der Roboter auf die verbleibende Zeit hin und gibt Lösungshinweise.
  • Nach abgelaufener Zeit stellt der Roboter die nächste Aufgabe.
  • „Der Roboter stellt so lange Aufgaben, bis das Quiz beendet ist.“
  • Am Ende zeigt der Roboter die Lösungen auf seinem Tablet und erklärt diese.

Der eindeutige Mehrwert der Quizmaster App besteht im Zeitgewinn für die Lehrperson. Diesen Vorteil hat nicht nur die Lehrperson selbst erkannt, sondern auch die teilnehmenden Studierenden haben festgestellt, dass der Roboter den Lehrenden in dieser Form unterstützt. Nach Mehrwerten konkret für die Studierenden gefragt, wurden hauptsächlich Spaß, Abwechslung und die allgemeinen Mehrwerte eines Quiz genannt. Dass der Zeitgewinn für die Lehrperson auch einen Vorteil für die Studierenden bringt, haben diese bislang nur in Ausnahmefällen erkannt.

„Geht es nicht auch einfacher?“ sind häufig gestellte Fragen im Zusammenhang mit der Quizmaster App. Lehrende können sicherlich ein Quiz selbst gestalten sowie kontrollieren, würden dann aber nicht die gewünschten Freiräume für die Assistenz erhalten, und alternative sprachverarbeitende Systeme wie Amazon Echo mit dem cloud-basierten „Alexa Voice Service“ können Quizze sicherlich auch steuern, doch fehlt ihnen die den humanoiden Robotern innewohnende Emotionalität.

[/vc_column_text][vc_custom_heading text=“Die Student-Advisor App“ font_container=“tag:h3|text_align:left“][vc_column_text]Eine weitere, nicht notwendigerweise hörsaalgebundene Anwendung, die allerdings durchaus auch Freiräume in der Präsenzlehre schaffen kann, ist die derzeit im Erprobungsstadium befindliche „Student-Advisor App“. Ziel dieser Anwendung ist es, dem Roboter Zugriff auf die über die digitalen Komponenten von Lehrveranstaltungen gesammelten Lernerdaten („learner-analytics“). zu ermöglichen. Dadurch kann sich der Roboter ein Modell zusammenstellen, mit Hilfe dessen ein individuelles Beratungsgespräch mit einem Studierenden geführt werden kann.

Voraussetzung für ein solches Beratungsgespräch sind belastbare und sichere Daten. Diese erhält der Roboter aus den Datenbanken der Lernplattform „Virtual Linguistics Campus“, der weltweit größten Lernplattform für sprachwissenschaftliche Inhalte. Dabei handelt es sich um Kursbelegungen und -ergebnisse, um Testergebnisse in einzelnen Lerneinheiten oder schlicht um Zugriffe auf Bearbeitungszeiträume von Online-Materialien. Mit diesen Daten kann der Roboter individuelle Sprechstunden abhalten.

Die Anmeldung zur „Roboter-Sprechstunde“ sollte idealerweise per Gesichtserkennung erfolgen. Leider ist die Gesichtserkennung auf dem verwendeten Robotertyp aber noch nicht zuverlässig genug, sodass es leicht zu Fehleinschätzungen kommen könnte. Stattdessen erfolgt die Kontaktaufnahme über einen individuellen QR-Code, den sich die Studierende von der Lernplattform laden und sich so beim Roboter identifizieren können. In Sekundenschnelle bekommt der Roboter so Zugang zu den allgemeinen Kursdaten sowie den individuellen Lernerdaten und es entsteht zum Beispiel ein folgender Dialog zwischen der hier anonymisierten Studentin Lisa und dem Roboter „Yuki“:

Yuki: „Hallo Lisa, ich grüße Dich. Du arbeitest im Kurs „History of English“ hervorragend mit.“

Lisa: „Hallo Yuki. Danke für das Lob. Hast Du auch etwas auszusetzen?“

Yuki: „Nicht viel. Allerdings solltest Du zur Sicherheit den zweiten Mastery Test zum Thema „Proto-Languages“ noch mal wiederholen, um eine höhere Prozentzahl als die bisherigen 75% zu erreichen. Hast Du noch Fragen?“

Lisa: „Wann ist die Abschlussklausur?“

Yuki: „Am 16. Februar 2019 um 10 Uhr.“

So in etwa sehen die Beratungsgespräche mit Roboter „Yuki“ aus. Die Gespräche werden zukünftig auch protokolliert und den Studierenden auf Wunsch per E-Mail zugesandt, eine Funktion die bei klassischen Coach-Student- Beratungen nicht vorgesehen ist.

Die Freiräume, die durch die Student-Advisor App entstehen, liegen auf der Hand: Studierende können nahezu in Echtzeit ihre Leistungen dialogisch in Erfahrung bringen, und die Lehrenden müssen sich in ihren Sprechstunden und auch in den Präsenzphasen nicht mehr mit monotonen Frage-Antwort- Szenarien zu allgemeinen Fragen zu Lehrveranstaltungen aufhalten, sondern sie können sich in ihren Sprechstunden anspruchsvolleren und wissenschaftlichen Fragestellungen widmen.[/vc_column_text][vc_single_image image=“7330″ img_size=“large“ add_caption=“yes“ alignment=“center“][vc_custom_heading text=“Fazit“ font_container=“tag:h3|text_align:left“][vc_column_text]Das Neue des Einsatzes humanoider Roboter in der Lehre liegt auf der Hand und wurde durch die Evaluationen im Projekt H.E.A.R.T. unterstützt: ein hoher Entertainment-Faktor und mehr Freiräume für die Lernbegleiter. Die Ausprägung der Künstlichen Intelligenz liegt in der Sensorik, der Option, Sprache mit Emotionen zu verknüpfen, in den Möglichkeiten der Spracherkennung und -synthese, die auf den Pepper- Systemen implementiert sind, sowie in einem Zusammenspiel zwischen all diesen Komponenten, sodass nahezu menschliche Fähigkeiten entstehen. Dass einige Komponenten, wie zum Beispiel die gesamte Dialogführung, immer noch in großen Teilen vorprogrammiert sind, fällt im täglichen Betrieb kaum auf.[/vc_column_text][ult_createlink title=“Zu den Literaturangaben“ btn_link=“url:http%3A%2F%2Fbit.ly%2F2nmTLbL%20|title:Literaturangaben|target:%20_blank|“ link_hover_style=“Style_1″ text_hovercolor=“#f07d00″][/vc_column][/vc_row]

LinkedIn
WhatsApp
Telegram
Facebook

Related Posts

August-Wilhelm Scheer Institut

Entdecken Sie unsere neusten Ausgaben

Innovationskultur – Räume, Regeln, Rebellen