Praxisphasen in Corona-Zeiten

Wie in jedem Semester bei uns üblich sollten auch im diesjährigen Sommersemester die schulpraktischen Übungen (SPÜ) von Studierenden des Faches Deutsch in Zusammenarbeit mit Halles Schulen absolviert werden. Rekordverdächtige 44 Studierende haben sich für die SPÜ im SoSe 2020 angemeldet. Sie sollten ursprünglich in elf Gruppen an unterschiedlichen Gymnasien und Sekundarschulen im Stadtgebiet sowie in Landsberg die Möglichkeit erhalten, praktische Erfahrungen im Schulalltag zu sammeln. Doch dann kam das Corona-Virus und hat nicht nur einiges in unserem Alltag durcheinander gebracht, sondern uns alle auch in vielen Lebensbereichen eingeschränkt.

Auch die SPÜ der Fachdidaktik Deutsch wären corona-bedingt in diesem Semester beinahe ins Wasser gefallen. Anfangs bangten die Teilnehmenden natürlich darum, ob die schulpraktischen Übungen überhaupt stattfinden würde. Doch bereits kurze Zeit später konnten sie aufatmen: Anstatt die SPÜ vollständig ausfallen zu lassen, entschied sich die Fachdidaktik Deutsch dafür, den Studierenden eine Alternative in Form von „Unterricht vor den Kommiliton*innen“ anzubieten. Diese „Notfallvariante“ konnte die schulpraktischen Übungen und ihre Authentizität des gemeinsamen Unterrichts mit Schüler*innen zwar nicht ersetzen, aber immerhin wäre somit den Studierenden die Möglichkeit gegeben wurden, überhaupt die SPÜ im SoSe 2020 absolvieren zu können. 

Es kam jedoch ganz anders, denn glücklicherweise ist das Lyonel-Feininger Gymnasium (LFG) eingesprungen und hat sich dazu bereiterklärt, den Studierenden die Möglichkeit praktischer und realitätsnaher Unterrichtserfahrungen trotz Corona-Pandemie zu gewährleisten. 

Im Zeitraum vom 15. Juni bis 09. Juli konnten schließlich sowohl die Fachdidaktik Deutsch als auch die Fachdidaktik Mathematik der MLU ihre SPÜ in Form von sogenannten SOL-Stunden, d.h. selbstorganisiertes Lernen, ableisten. Somit bot sich den Studierenden die Möglichkeit, trotz Corona, unter der Anleitung und Betreuung von Herrn Dr. Reichelt sowie von Studierenden höherer Semester, die ihre SP2-Ersatzleistungen durch Hospitationen und Stundenauswertungen erbrachten, gewinnbringende Erfahrungen betreffend der Unterrichtsplanung-, durchführung- und reflexion zu sammeln. Auf diese Weise wurden während der SPÜ-Phase im SoSe 2020 insgesamt 72 Unterrichtsstunden von Studierenden der MLU abgehalten, die so, trotz der kleineren Klassen, Einblicke in die Vielfalt unterschiedlichster Lerngruppen erhielten und praktische (Unterrichts-)Erfahrungen sammeln konnten.

Von genau diesen gesammelten praktischen (Unterrichts-)Erfahrungen werden uns die beiden Studentinnen Johanna Wecke und Kim Siegmund, die an den „Praxisphasen während Corona-Zeiten“ teilgenommen haben, in dem folgendem Interview berichten:

Ein besonderer Dank gilt an dieser Stelle dem Lyonel-Feininger-Gymnasium für die Ermöglichung und Unterstützung der schulpraktischen Übungen im SoSe 2020! In Corona-Zeiten war dies sicherlich keine Selbstverständlichkeit!

Rahmenthemen für die AuA (StEx-Klausur) im Wintersemester 2020/21

Literaturwissenschaft

 

Sprachwissenschaft

Prof. Dr. Staffeldt / Dr. Jörg Wagner:

Gesprochene Sprache/Gespräche analysieren

 

Altgermanistik

  

Fachdidaktik

Prof. Dr. Ballod / Dr. Michael Reichelt:

Methodenkompetenz im Deutschunterricht: Konzepte, Ziele, Vermittlung

oder: 

Sich mit literarischen Texten auseinandersetzen – Ganzschriften im Deutschunterricht

 

Die ausstehenden Rahmenthemen werden nachgetragen, sobald sie bekannt sind.

Informationen des LISA zu den Staatsexamina im WiSe 2020/21:

KI in der Bildung – KI und Ethik

Im Rahmen unserer Themenreihe „KI in der Bildung“ haben wir bereits an mehrere Stellen deutlich gemacht, dass Künstliche Intelligenz durchaus über das Potenzial verfügt, die Gesellschaft grundlegend zu verändern – positiv wie auch negativ. Aus diesem Grund muss KI unbedingt entsprechend ethischer Standards programmiert- und daran ausgerichtet werden.

Das Beispiel des autonomen Fahrens zeigt, dass KI einerseits das Potenzial birgt, Verkehrsunfälle um bis zu 90 Prozent zu reduzieren. Auch wenn damit Verkehrsunfälle stark reduziert werden können, bleiben sie dennoch, trotz des automatischen Fahrens, unvermeidbar. Die Frage nach der Schuld erscheint in solchen Fällen jedoch umso dringlicher: Wer ist verantwortlich, wenn die KI im Auto selbst einen Fehler macht? Was passiert, wenn eine Kollision z.B. mit einer schwangeren Frau oder einem älteren Ehepaar unvermeidbar ist? Wer entscheidet in diesem Fall und wer haftet?

Dieses hohe Konfliktpotenzial macht das autonome Fahren zum Paradebeispiel für den Zusammenhang zwischen KI und Ethik. Doch auch in vielen anderen Lebensbereichen ist eine Orientierung der KI entlang ethischer Richtlinien von Nöten. Deshalb gilt grundsätzlich: Wer sich mit Künstlicher Intelligenz beschäftigt, kommt um Fragen der Ethik nicht herum. Aus diesem Grund möchten wir das Thema „KI und Ethik“ in diesem Blogbeitrag von unterschiedlichsten Perspektiven aus betrachten. 

Allgemeines zum Verhältnis von KI und Ethik

Die Ethik, die sich mit KI-basierten Systemen beschäftigt, ist ein Teilbereich der angewandten Ethik. Dieser widmet sich Fragen, die durch die Entwicklung, Einführung und Nutzung von KI-basierten Systemen für das Handeln der Individuen in der Gesellschaft sowie für die moralischen Normen einer Gesellschaft aufgeworfen werden. Das Hauptaugenmerk liegt dabei also allen voran auf der Frage, inwiefern KI-basierte Systeme das Leben von Einzelpersonen verbessern können bzw. welche Bedenken dabei aufgeworfen werden.

Solche Anwendungen der Künstlichen Intelligenz, die auf Verfahren des maschinellen Lernens basieren, haben einerseits das Potential, Entscheidungswege effizient zu gestalten. Andererseits können sie jedoch auch erheblichen Schaden anrichten. In diesem Kontext liegt ein Schaden dann vor, wenn eine Vorhersage oder ein Ergebnis eines KI-Systems die Fähigkeit eines Individuums, seine rechtmäßige Persönlichkeit zu etablieren, negativ beeinflusst und dies im Endeffekt dazu führt, dass seine Fähigkeiten, auf Ressourcen zuzugreifen, beeinflusst oder beeinträchtigt werden.

KI und Ethik - Das Problem sitzt vor dem Computer

„Verantwortlich für das Versagen der Algorithmen sind wir Menschen.“ [1]

Bereits seit einigen Jahren nimmt KI nach und nach immer mehr Einfluss auf unseren Alltag. Kleine Alltagshelfer wie sprachgesteuerte Assistenten, Übersetzer und Chatbots erweisen sich meist als äußerst nützlich und sind einfach zu handhaben. Sie übernehmen dabei klar definierte Aufgaben und greifen auf das zurück, was der Mensch ihnen beigebracht hat. Ihre KI arbeitet mithilfe von Verfahren wie Machine- und Deep Learning. Die Programme durchforsten also riesige Datenmengen und erkennen darin Muster. Anhand dieser Muster lernen sie dann weiter.

Doch genau hier liegt das Problem: Bei der Auswertung solch großer Datenmengen reproduziert die KI, was sie aus eben diesen entnehmen kann. Die Folge davon können unfaire Systeme sein.

Inwiefern kann eine KI unfair agieren? Ein großes Unternehmen beispielsweise verwendete zur Vorsortierung von Bewerbungen eine entsprechende KI. Die Software wurde jedoch auf Grundlage einer eingeschränkten Datenbasis programmiert. Die verwendeten Daten stammten aus den vergangenen zehn Jahren, in denen überwiegend männliche Bewerber eingestellt wurden. Dementsprechend hat der Algorithmus gelernt, dass die Eigenschaft „männlich“ positiv zu bewerten ist. Als Konsequenz davon wurden Frauen im Vergleich zu Männern von der KI schlechter bewertet.

Besonders gefürchtet sind solch diskriminierende Algorithmen in der Medizin – schließlich geht es dabei mitunter um Leben und Tod. Eine Künstliche Intelligenz durchforstet zwar schneller als jeder Mensch tausende Studien aus wissenschaftlichen Zeitschriften und erstellt entsprechende Vorschläge für eine Diagnose, aber auch ein Algorithmus macht Fehler. Zudem sind manche Krankheiten gar nicht in Form von Forschungsdaten erfasst. Dies macht deutlich, dass Algorithmen, die auf solchen Datensätzen beruhen, gar nicht ausgewogen sein können. Es stellt sich nun wiederum in Bezug auf die Ethik die Frage, wie man damit umgeht und wer dafür verantwortlich ist.

An dieser Stelle möchten wir auf das oben angebrachte Zitat verweisen. Es stammt von den Autoren des Buches „Wir und die intelligenten Maschinen“, Jörg Dräger und Ralph Müller-Eiselt, die weiterhin dazu anbringen:

„Wir definieren ihre Ziele, programmieren ihren Code, entscheiden über ihren Einsatz. Deshalb sollten wir auch ihre Wirkung kontrollieren. Das erfordert mehr algorithmische Kompetenz und mehr ethische Verantwortung.“ [2].

Wie diskriminierend ist KI nun wirklich?

Das Maschinelle Lernen beruht auf einer Klassifizierung: Die Systeme erkennen neue Muster in Daten und weisen Ergebnisse bestimmten Gruppen zu. Wann wird eine solche Entscheidung also diskriminierend? Allgemein gesagt, gilt etwas als diskriminierend, wenn Gleiches ungleich oder Ungleiches gleich behandelt wird. Das Problem ist dabei nicht die Differenzierung an sich, sondern ob eine solche Ungleichbehandlung gerechtfertigt ist oder nicht. Dies lässt sich jedoch nicht objektiv definieren.

Die aufgrund von diskriminierenden KI-Systemen entstandenen Verzerrungen bezeichnet man als „Biases“. Sie entstehen sowohl bei der Konzipierung (Input) von Künstlicher Intelligenz als auch bei ihrer Anwendung (Output). Eine solche Diskriminierung bei der Eingabe liegt vor, wenn gesellschaftlich etablierte Vorurteile in die Software übertragen werden. Dies kann explizit geschehen, indem diskriminierende Unterscheidungen programmiert werden. Beispielsweise wenn Sensoren aufgrund technischer Vorgaben nur bei heller Hautfarbe reagieren. Andere implizite Diskriminierungsformen entstehen erst in der Anwendung und zeigen sich dementsprechend auch erst in dem jeweiligen Moment wie bei dem Chatroboter „Tay“, der von Google entwickelt wurde und aufgrund systematischer, fremdenfeindlicher Konversationen eine diskriminierende Ausdrucksweise entwickelte.

In einem Beitrag für das Wissenschaftsjahr fasst Susanne Beck, Professorin für Strafrecht, Strafprozessrecht, Strafrechtsvergleichung und Rechtsphilosophie an der Universität Hannover, die Problematik zusammen:

KI-Diskriminierung und Genderfragen

Hast Du dich bereits einmal gefragt, warum Stimmen von KI-Assistenzsystemen wie Alexa, Siri oder diversen Navigationssoftwares weiblich sind? All diese Systeme weisen geteilte Eigenschaften auf: Sie sind hilfsbereit, unterstützend, vertrauenswürdig, verlässlich kompetent, effizient, geduldig und anspruchslos. Und obwohl Alexa beispielsweise den ganzen Tag mit uns spricht, hat sie dennoch nicht das Sagen. Natürlich lässt sich die voreingestellte Frauenstimme oftmals verändern. Trotzdem ist sie ein Ausdruck einer gesellschaftlichen Voreinstellung, anhand derer die Systeme in unseren Alltag integriert werden. Bereits 2005 beschrieben Clifford Nass und Scott Brave, dass weibliche Stimmen in der Mensch-Computer-Interaktion Hilfe suggerieren, um Probleme selbst zu lösen. Männliche Stimmen hingegen suggerieren, uns Lösungen bereitzustellen.

Kaum zu glauben, aber in den 50er und 60er Jahren des vergangenen Jahrhunderts war das Programmieren als sekundäre Aufgabe Frauenarbeit. Die Begründung dafür lautete sinngemäß, dass Frauen ja schließlich auch in der Lage sind, Strickmuster zu entwerfen. Den hauptsächlich männlichen Herstellern der Maschinen hingegen galten Ruhm und Ehre. Heute gibt es jedoch auffallend wenig Frauen, die in diesem Bereich tätig sind und das, obwohl viele ihrer Vorgängerinnen Grundsteine für die heutige Informatik gelegt haben. Der Global Gender Gap Report des World Economic Forum, der im Dezember 2018 veröffentlich wurde, zeigt, dass die Erfolge der Geschlechtergerechtigkeit in zentralen gesellschaftlichen Bereichen aufgrund von KI erneut in Frage stehen. Demnach sind 78 Prozent derjenigen, die im KI-Sektor arbeiten (vorwiegend weiße) Männer. Der Gender Gap ist damit dreimal so hoch wie in anderen Industrien. Zudem werden Frauen im KI-Bereich oftmals schlechter bezahlt und in reputationsarmen Bereichen eingesetzt. Da der Gender-Gap so groß ist, wird er sich, laut dem World Economic Forum, auch nicht von selbst aufheben.

Es zeigt sich also, dass KI-Systeme in vielen Fällen die Gesellschaft mitsamt den bestehenden Ungerechtigkeiten abbilden. Wenn mithilfe von KI-Berechnungen Kredite vergeben, Studienplätze verteilt und Entscheidungen über vorzeitige Haftentlassungen getroffen werden, können historische bzw. verzerrte Daten zu Ungerechtigkeit führen. Eine Forderung nach der radikalen Erhöhung des Frauenanteils bezogen auf die ökonomische Teilhabe ist dringend nötig, reicht aber nicht aus, um die bestehenden Probleme rund um den „pale male mainstream“ zu beseitigen. Der Grund dafür ist, dass Diskriminierungsfragen intersektionell sind. Das heißt, dass Diskriminierungskategorien wie Geschlecht, Rasse, Klasse oder Herkunft miteinander verbunden sind und nicht ausschließlich einzeln betrachtet werden können. In diesem Zusammenhang wird eine entsprechende Aus- und Weiterbildung benötigt, die gesellschaftliche Kontexte reflektiert und ein Wissen über mögliche Diskriminierungsformen vermittelt. Es braucht also eine Professionsethik, die die ethischen Grundlagen der eigenen Arbeit thematisiert.

Eine Zusammenfassung und weitere Anregungen zu KI-Diskriminierung bezogen auf Genderfragen findet Ihr in diesem Interview mit Prof. Dr. Katharina Simbeck von der HTW Berlin:

Eine gesellschaftsverträgliche KI gestalten

„Gesellschaftsverträgliche KI-Systeme sollten das gesamte Spektrum der menschlichen Fähigkeiten und Anforderungen berücksichtigen.“ [3]

Bereits 2016 reagierte die Politik und so setzte der damalige Bundesverkehrsminister Alexander Dobrindt eine Kommission ein, die 20 ethische Regeln entwickelte, welche weltweit die ersten Leitlinien für Fahrcomputer darstellen. Aus ihnen geht hervor, dass grundsätzlich die höchstmögliche Anzahl an Leben geschützt werden soll, da der Wert eines jeden einzelnen Menschen aus ethischer Perspektive unantastbar bleibt. Weiterhin soll die Software selbstfahrender Autos blind gegenüber bestimmter Merkmale sein, um somit Diskriminierung vorzubeugen. Auf diese Ethik-Kommission folgte die Datenethik-Kommission, die den Einsatz von Algorithmen in ganz konkreten Situationen hinterfragt hat. Darüber hinaus hat die EU-Kommission eine Expertengruppe zur Ethik von KI und Algorithmen eingesetzt, die im Juni 2019 diesbezüglich Ratschläge für die Politik zusammenfasste.

Eine erste wichtige Forderung dieser KI Strategie ist dabei, menschliche Handlungsfähigkeit und Aufsicht bei der Umsetzung von KI-Systemen zu erhalten. KI-Systeme sollen schließlich gerechte Gesellschaften ermöglichen, indem sie die menschliche Handlungsfähigkeit sowie Grundrechte unterstützen. Eine wichtige Rolle kommt dabei Werten wie Transparenz und Informationsautonomie zu. Weiterhin zählt zu den Voraussetzungen für ein vertrauenswürdiges KI-basiertes System, dass Algorithmen sicher, zuverlässig und robust genug sind, um Fehler oder Inkonsistenz während aller Phasen zu vermeiden. Darüber hinaus spielt in diesem Zusammenhang der Schutz von generierten Daten eine große Rolle. Die Anwendenden sollte eine möglichst große Kontrolle über ihre eigenen Daten haben und zudem die Gewissheit, dass die betreffenden Daten nicht gegen sie verwendet werden können. Zusammenfassend sollen KI-Systeme das gesamte Spektrum der menschlichen Fähigkeiten und Anforderungen berücksichtigen, den barrierefreien Zugang zu Ressourcen und Möglichkeiten gewährleisten sowie die Rückverfolgung von Ergebnissen und Entscheidungen erlauben. Auch der Aspekt der Nachhaltigkeit sowie die ökologischen Auswirkungen von Algorithmen und Co. müssen im Zusammenhang mit der Digitalisierung durch KI Beachtung finden. Nicht zuletzt müssen Mechanismen geschaffen werden, die es erlauben, Verantwortung und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse zu gewährleisten.

Mögliche Grundsätze für eine ethische KI

Die UNI Global Union formulierte bereits 2017 10 Grundsätze, die Gewerkschaften, Vertrauensleuten und Beschäftigten ein Bündel konkreter Forderungen in Bezug auf Transparenz und die Anwendung von KI an die Hand geben. Sie informieren KI-Programmierer und Geschäftsleitungen darüber, wie wichtig es ist, die Arbeitnehmer einzubeziehen. Um die Interessen der Arbeitnehmer zu wahren und ein ausgewogenes Kräfteverhältnis am Arbeitsplatz aufrechtzuerhalten, sollen die Grundsätze aktiv von Betrieben anerkannt und umgesetzt werden. Es handelt sich dabei um die folgenden 10 Grundsätze bezogen auf KI und Ethik:

Bei einem solchen System ist es möglich, zu erkennen, wie und warum eben dieses eine bestimmte Entscheidung getroffen hat oder warum ein Roboter beispielsweise in einer bestimmten Weise gehandelt hat. Dieser Grundsatz ist von großer Bedeutung, da er sicherstellt, dass die übrigen Grundsätze eingehalten werden können.

Die sogenannte „Ethik-Black-Box“ ist dazu da, Informationen über das KI-System aufzuzeichnen und somit dessen vollständige Transparenz zu gewährleisten. Darüber hinaus sollte diese Box Daten und Informationen über in das KI-System eingebaute ethische Überlegungen bereitstellen können. Bezogen auf einen Roboter würde die Black Box alle Entscheidungen, die Grundlagen für die Entscheidungsfindung sowie sensorische Daten aufzeichnen. Die von der Black Box gelieferten Daten könnten wiederum den Roboter dabei unterstützen, sein Handeln in einer für Menschen verständlichen Sprache zu erklären, was sowohl eine bessere Beziehung fördert als auch die Benutzerfreundlichkeit verbessert.

Dies umfasst einerseits Ethikcodes für die Entwicklung, Anwendung und Nutzung von KI, in dem Sinne, dass KI-Systeme über ihren gesamten operativen Prozess hinweg kompatibel bleiben und den Grundsätzen menschlicher Würde, Integrität, Freiheit, Privatsphäre und kultureller bzw. geschlechtsspezifischer Vielfalt sowie grundlegende Menschenrechte fördern. Außerdem müssen KI-Systeme die Ökosysteme und die biologische Vielfalt unseres Planeten schützen, wenn nicht sogar verbessern. 

Damit Maschinen den rechtlichen Status von Werkzeugen besitzen und Menschen jederzeit die Kontrolle über- sowie die Verantwortung für diese Maschinen behalten, ist eine unabdingbare Voraussetzung, dass die Entwicklung von KI verantwortungsbewusst, sicher und nützlich sein muss. Damit einher geht, dass KI-Systeme so konzipiert und betreiben werden sollten, dass sie in Einklang mit bestehenden Rechtsvorschriften stehen. Die Menschen müssen Recht auf den Zugriff, die Verwaltung sowie die Kontrolle der von KI-Systemen erzeugten Daten haben, da diese die Fähigkeiten besitzen, die Daten zu analysieren und zu verwenden.

Bei der Gestaltung und Wartung von KI ist es von großer Bedeutung, dass das System im Hinblick auf negative oder schädliche menschliche Vorurteile hin kontrolliert- und jegliche Voreingenommenheit erkannt- bzw. nicht vom System weiterverbreitet wird.

Die KI-Technologien sollten möglichst vielen Menschen einen Nutzen bringen. Der von KI geschaffene wirtschaftliche Wohlstand sollte dementsprechend breitflächig und gleichmäßig verteilt werden, sodass die gesamte Menschheit davon profitieren kann. Aus diesem Grund werden globale sowie nationale und politische Strategien zur Schließung der existierenden wirtschaftlichen, technologischen und gesellschaftlichen Kluft benötigt.

Grundlegend wichtig ist es, politische Strategien einzusetzen, die einen gerechten Übergang in die digitale Welt sicherstellen. Dies erfordert, dass Arbeitnehmer auf allen Ebenen und in allen Beschäftigungskategorien Zugang zu sozialer Sicherheit sowie kontinuierlichem lebenslangem Lernen haben, um beschäftigungsfähig zu bleiben. Zusätzlich dazu müssen alle Arbeitnehmer in sämtlichen Beschäftigungsformen dieselben starken Grundrechte habe. Dementsprechend müssen alle KI-Systeme mit einer Kontrolle und einem Abwägen diesbezüglich einhergehen. Dazu könnte ein spezieller, im System eingebauter Algorithmus dienen.

Für menschwürdige Arbeit und ethische KI auf globaler und regionaler Ebene wird der Einsatz von Vertreter*innen mehrerer Interessengruppen bestehender Governance-Gremien empfohlen. Darüber hinaus müssen Whistleblowing-Mechanismen und Verfahren eingesetzt werden, um den Übergang und die Umsetzung von ethischer KI sicherzustellen.

Grundsätzlich gilt, dass Roboter so entwickelt und betrieben werden sollen, dass sie die bestehenden Gesetze und Grundrechte- sowie freiheiten einhalten. Damit verbunden ist die Frage nach der rechtlichen Verantwortung. In diesem Zusammenhang sollen Personen mit rechtlicher Zuständigkeit einem Roboter zugewiesen werden. Roboter sind demnach nach dem Gesetz keine verantwortlichen Parteien.

Um KI in Gesellschaft und Alltag vollständig zu integrieren, braucht es Gestaltungsregeln, an denen sich die Entwicklung und der Einsatz algorithmischer Systeme orientieren kann. Im Projekt „Ethik der Algorithmen“ hat die Bertelsmann Stiftung gemeinsam mit dem Think Tank iRights.Lab sowie mit zahlreichen weiteren Expert*innen die sogenannten „Algo.Rules“ erarbeitet. Dabei handelt es sich um einen Katalog von neun Regeln, die beachten werden müssen, um eine gesellschaftlich förderliche Gestaltung sowie den entsprechenden Einsatz algorithmischer Systeme zu ermöglichen und zu erleichtern. Diese Regeln sollten bereits bei der Entwicklung von KI-Systemen beachtet und implementiert werden. Vor allem Entwickler*inne, Designer*innen und Programmierer*innen, die einen signifikanten Einfluss auf die Entwicklung und den Einsatz algorithmischer Systeme haben, kommt dabei eine besondere Bedeutung zu.

Diejenigen, die algorithmische Systeme entwickeln, betreiben oder über ihren Einsatz entscheiden, müssen auf Grundlage ihrer erforderlichen Fachkompetenzen die Funktionsweise sowie die möglichen Auswirkungen eben dieser verstehen. Dafür sind das Teilen von individuellem bzw. institutionellem Wissen sowie der interdisziplinäre Austausch zwischen den Aufgabenbereichen zentral – ebenso wie qualifizierende Maßnahmen. Diese gilt es, in die Ausbildung neuer Mitarbeiter*innen zu integrieren. Weiterhin sollte der interdisziplinäre Austausch verfestigt werden und für andere Interessierte offenstehen.

 

Die Frage nach Verantwortung bedarf einer eindeutigen Zuteilung. Der zuständigen Person müssen in diesem Zusammenhang die damit verbundenen Aufgaben bewusst sein. Dies gilt natürlich auch für geteilte Verantwortlichkeiten bei mehreren Personen bzw. Organisationen. Die Zuteilung wiederum muss entsprechend lückenlos sowie transparent dokumentiert werden. Allgemein darf die Verantwortung weder auf das algorithmische System noch auf Anwender*innen oder betroffene Personen abgewälzt werden.

Die Ziele eines algorithmischen Systems müssen klar definiert sein. Hinzukommt, dass die Informationen zu dessen Einsatz dokumentiert werden müssen. Dazu zählen beispielsweise zugrundliegende Daten und Berechnungsmodelle. Eine dokumentierte Folgenabschätzung ist vor dem Einsatz des KI-Systems durchzuführen. Diese muss weiterhin insbesondere bei lernenden Systemen und in dynamischen Einsatzfeldern mit viel Veränderung in regelmäßigen Abständen widerholt werden. Dabei sind allen voran die Risiken für Diskriminierung sowie weitere für das Individuum und das Gemeinwohl bedeutende Folgen im Blick zu behalten. Auch Werteabwägungen bei der Zielsetzung und dem Einsatz algorithmischer Systeme müssen festgehalten werden.

Die Zuverlässigkeit und Robustheit eines KI-Systems sowie der zugrundeliegenden Daten gegenüber Angriffen, Zugriffen und Manipulationen sind unbedingt zu gewährleisten. Um dies zu erreichen, muss Sicherheit von Beginn an ein festes Element der Gestaltung des algorithmischen Systems sein. Darüber hinaus ist das System vor seinem Einsatz in einer geschützten Umgebung zu testen. Weiterhin müssen die getroffenen Sicherheitsvorkehrungen dokumentiert werden.

Für Personen die mit algorithmischen Systemen interagieren, muss bei ihrem Einsatz durch eine entsprechende Kennzeichnung erkennbar sein, dass der Entscheidung oder Prognose eine KI-System zugrunde liegt. Dies gilt besonders dann. Wenn das System einen Menschen bzw. seine Interaktion imitiert.

KI-Systeme müssen in ihrer Wirkung sowie Funktionsweise für Menschen möglichst leicht verständlich gemacht werden. Dazu müssen Informationen über die den Systemen zugrunde liegenden Daten und Modell in leicht verständlicher Sprache dargestellt werden.

Um zu gewährleisten, dass ein algorithmisches System beherrschbar bleibt, müssen alle daran beteiligten Personen gemeinsam stets die Kontrolle über eben dieses behalten. Es muss sichergestellt werden, dass der Gesamtüberblick über das System stets gewahrt bleibt. Die Arbeitsweise eines Systems darf also niemals so komplex und undurchschaubar werden, dass es von Menschen nicht mehr beherrschbar ist oder geändert werden kann. Dies gilt insbesondere für selbstlernende Systeme.

Ob die beabsichtigen Ziele eines KI Systems tatsächlich verfolgt werden und ob sein Einsatz möglicherweise bestehendes Recht verletzt, muss stets einer aktiven Kontrolle unterliegen. Dazu sollten externe Prüfstellen in die Lage versetzt werden, ein algorithmisches System tatsächlich und umfassend unabhängig prüfen zu können. Wird dabei eine negative Wirkung festgestellt, muss die Fehlerursache ermittelt und das KI-Systeme entsprechend angepasst werden.

Wir ein algorithmisches System eingesetzt, müssen leicht zugängliche Wege zur Kontaktaufnahme zur Verfügung stehen. Erstens müssen betroffene Personen eine qualifizierte und detaillierte Auskunft zur konkreten Entscheidung und der dahinter liegenden Abwägung einfordern können. Darüber hinaus muss zweitens eine einfache, niedrigschwellige und wirksame Beschwerdemöglichkeit zur Verfügung stehen. Die Beschwerden und eigeleiteten Maßnahmen sind entsprechend zu dokumentieren.

Ethische Prinzipien messbar machen

Wie Ihr seht, gibt es eine Vielzahl an Leitlinien für die ethische Gestaltung von KI durch Akteure aus Wirtschaft, Zivilgesellschaft, Wissenschaft und Politik. Offen bleibt jedoch die Frage, wie die darin enthaltenen Prinzipien konkret umgesetzt werden sollen. Da es viele unterschiedliche Verständnisse für Begriffe wie Transparenz und Gerechtigkeit gibt, fehlt KI-entwickelnden Unternehmen die nötige Orientierung sowie eine wirksame Kontrolle der algorithmischen Systeme. Darin besteht aktuell eines der größten Hindernisse für die Entwicklung gemeinwohlorientierter Künstlicher Intelligenz. Daher hat die Bertelsmann Stiftung gemeinsam mit der gemeinnützigen Normierungsorganisation VDE ein Arbeitspapier mit dem Titel „AI Ethics: Form Principles to Practice – An interdisciplinary framework to operationalise AI“ entwickelt, welches erklärt, wie KI-Ethikprinzipien europaweit operationalisiert und in die Praxis überführt werden können.

Zentrales Element des Papiers ist der Vorschlag eines Ethik-Labels für KI-Systeme. Ein solches Label bietet – vergleichbar mit einem Energieeffizienzlabel für Elektrogeräte – KI-entwickelnden Organisationen die Möglichkeit, die Qualität ihrer Produkte nach außen zu kommunizieren. Damit macht das Label die auf dem Markt zur Verfügung stehenden Produkte für Konsumenten und KI-einsetzende Organisationen besser vergleichbar und schafft einen schnellen Überblick darüber, ob ein algorithmisches System die im Anwendungsfall nötigen ethischen Anforderungen erfüllt. Somit kann über rechtlich vorgegebene Grenzen hinaus eine ethische Entwicklung von KI gefördert werden.

Quelle: Hustedt, Carla/Fetic, Lajla: From principles to practice: Wie wir KI-Ethik messbar machen können. Algorithmenethik 2020 (https://algorithmenethik.de/2020/04/02/from-principles-to-practice-wie-wir-ki-ethik-messbar-machen-koennen/).

Welche Anforderungen zum Erreichen einer bestimmten Stufe notwendig sind, kann wiederum vorab mithilfe des sogenannten „WKIO-Modells“ bestimmt werden. Dieses Modell bietet die methodische Basis für den Vorschlag des Arbeitspapiers und kann dabei helfen, allgemeine Werte durch die Aufschlüsselung in Kriterien, Indikatoren und messbare Observablen zu konkretisieren, um somit deren Umsetzung überprüfbar zu machen.

Quelle: Hustedt, Carla/Fetic, Lajla: From principles to practice: Wie wir KI-Ethik messbar machen können. Algorithmenethik 2020 (https://algorithmenethik.de/2020/04/02/from-principles-to-practice-wie-wir-ki-ethik-messbar-machen-koennen/).

Zur Klassifizierung verschiedener Anwendungskontexte stellt das Arbeitspapier die „Risko-Matrix“ vor. Diese nutzt einen zweidimensionalen Ansatz, um der gegebenen Vielfalt verschiedener Anwendungsfälle gerecht zu werden. Als Dimensionen für die Klassifizierung besitzt die Matrix die Intensität des potenziellen Schadens (X-Achse) sowie die Abhängigkeit der betroffenen Personen von der jeweiligen Entscheidung (Y-Achse). Die Intensität des potenziellen Schadens berücksichtigt das Ausmaß der Verletzung von individuellen Grundrechten, die Anzahl der betroffenen Personen sowie mögliche negative Auswirkungen auf die Gesellschaft als Ganzes. Die Abhängig der betroffenen Personen hängt unter anderem von der Möglichkeit ab, sich der Entscheidung entziehen-, ein anderes System wählen- oder eine bestehende Entscheidung hinterfragen zu können.

Quelle: Hustedt, Carla/Fetic, Lajla: From principles to practice: Wie wir KI-Ethik messbar machen können. Algorithmenethik 2020 (https://algorithmenethik.de/2020/04/02/from-principles-to-practice-wie-wir-ki-ethik-messbar-machen-koennen/).

Fazit

Wie der vorliegende Beitrag gezeigt hat, ist es notwendig, Diskriminierungsprozesse verursacht durch KI zu erkennen und ihnen in ihren komplexen gesellschaftlichen Erscheinungsformen zu begegnen. Für Gerechtigkeitsfragen sind nicht allein diejenigen zuständig, die jeweils diskriminiert werden, sondern alle Mitglieder der Gesellschaft. Auch wenn Individuen grundsätzlich gegen eine unrechtmäßige Diskriminierung durch KI-Systeme vorgehen können sollen. Natürlich spielen dabei in einer digitalen Gesellschaft auch technische Instrumente eine Rolle. Alle diejenigen, die an und mit KI-Systemen arbeiten kommt in diesem Zusammenhang die Aufgabe zu, die Technik im Sinne des Gemeinwohls zu entwickeln und zu nutzen. Schulungen und Weiterbildungen für Beschäftigte, die KI nutzen, wären durchaus denkbar.

Zuletzt bleibt festzuhalten, dass die potenzielle Diskriminierung beim Einsatz von Künstlicher Intelligenz Teil einer größeren Debatte werden muss. Die Frage, wie man allen Menschen gleichermaßen im digitalen Zeitalter ein gutes Leben ermöglichen kann, sollte im Mittelpunkt aller Anstrengungen und Debatten rund um das Thema KI stehen. Trotz aller moralischer Dilemmata ist in diesem Zusammenhang zu bedenken: Keine Künstliche Intelligenz einzusetzen, ist auch keine Lösung.

[1] Zit. Dräger, Jörg/Müller-Eiselt, Ralph: Wir sind die intelligenten Maschinen. In Zeit: Kethik. KI braucht Ethik. (https://www.zeit.de/angebote/weltderdaten/kuenstliche-intelligenz-und-ethik/index).

[2] Zit. Dräger, Jörg/Müller-Eiselt, Ralph: Wir sind die intelligenten Maschinen. In Zeit: Kethik. KI braucht Ethik. (https://www.zeit.de/angebote/weltderdaten/kuenstliche-intelligenz-und-ethik/index).

[3] Zit. Zuckerberg, Mark: Indipendent: Zuckerberg hearing: Facebook founder attacked by US politicians for site’s ‚bias‘ and failure to protect users – as it happened. In Levina, Olga: Ethik und Künstliche Intelligenz. Ethische Fragestellungen der Gestaltung und Anwendung von KI-basierten Systemen. Informatik aktuell 2020 (https://www.informatik-aktuell.de/betrieb/kuenstliche-intelligenz/kuenstliche-intelligenz-und-ethik.html)

News: Aktualisierung „Deutschdidaktik im Dialog“

Seit Mai 2018 werden im Rahmen der Veranstaltungsreihe „Deutschdidaktik im Dialog“ (DDiD) in loser Folge Themen zur Lehrerbildung im Fach Deutsch sowie zum Deutschunterricht aufgegriffen. In der Regel finden pro Semester zwei Veranstaltungen dazu statt.

Für Euch haben wir die Themen und Inhalte aller bisherigen DDiD-Veranstaltungen noch einmal zusammengetragen:

2018

Juni:

  • „Angebot(e) und Nachfrage(n)“

Mai:

  • „Alles neu macht der Mai!?“

2019

Dezember:

  • „Theater in Schule und Hochschule – Ein Streifzug durch die Bühnen von Kultur und Ausbildung“

Juni:

  • „Lyrics & Lyrik“

Mai:

  • „Praxis vs. Theorie. Praxisphasen im Lehramtsstudium“

Januar:

  • „Der Frühling war so kalt, dass das Meer nicht warm wurde bis es Sommer war -Filmabend und Diskussion mit dem Regisseur Alexej Hermann“

Und was ist mit DDiD 2020?

Auch für das WS 2020/21 planen wir nach langer (corona-bedingter) Pause, die Veranstaltungsreihe „Deutschdidaktik im Dialog“ fortzusetzen. Ob dieses Vorhaben realisiert werden kann, wird sich erst noch zeigen müssen. Wir bleiben jedoch zuversichtlich! Und wenn es soweit ist, bekommt Ihr natürlich als Erste Bescheid!

KI in der Bildung – Lernen von und mit KI

In den vergangenen Beiträgen der Themenreihe „KI in der Bildung“ haben wir uns bereits damit auseinandergesetzt, was KI eigentlich ist, welche Voraussetzung für die Etablierung von KI benötigt werden, wie es um KI in der nationalen und internationalen Politik steht und welche Anwendungsmöglichkeiten KI für Schulen und Hochschulen bereithält. Darauf aufbauend soll es in diesem Beitrag einerseits darum gehen, wie KI lernt und andererseits darum, wie der Mensch von und mit KI lernen kann. Dabei wollen wir insbesondere auf das schulische Lernen bzw. Lernverhalten und Motivation eingehen.

Was noch vor wenigen Jahren als Science-Fiction galt, hält heute in Form von intelligenten Sprachsystemen oder der Navigation über das Smartphone Einzug in unseren Alltag. Die dabei verwendeten Technologien werden zusehend besser und entwickeln sich stets weiter. Im Bereich der künstlichen Intelligenz sind es allen voran das Maschinelle sowie das Tiefe Lernen, auch bekannt als „Deep Learning“, die die digitale Entwicklung vorantreiben. Doch was versteht man eigentlich unter diesen Begriffen und inwiefern hängen sie miteinander zusammen? Darum soll es in dem ersten Teil unseres Beitrags gehen.

Der digitale Fortschritt macht auch vor dem Bildungssektor nicht halt. Heutzutage werden digitale Lernformate wichtiger denn je. Obwohl auch das Bildungssystem das individuelle Lernen als Schlüssel zu einer modernen und integrativen Gesellschaft betrachtet, berücksichtigen viele Lernumgebungen die dafür notwendigen, individuellen und adaptiven Lernprozesse nur in begrenztem Maße. Daraus resultiert die Frage, wie sichergestellt werden kann, dass Schüler*innen individuell zugeschnittenen Lernstoff erhalten.
An diesem Punkt kommen Maschinelles- und Tiefes Lernen ins Spiel. Ihre Algorithmen ermöglich es, die mithilfe von Sensoren gesammelten Daten auszuwerten und somit das Lernverhalten sowie den kognitiven Zustand der Lernenden zu erfassen. Davon ausgehend können dann individuelle Vorschläge zur Erhöhung des Lernerfolgs gegeben werden. In dem zweiten Teil dieses Beitrags gehen wir, anhand eines Vokabeltest, darauf ein, wie der Lernprozesse mithilfe von KI individualisiert werden kann. Außerdem möchten wir auf dieser Grundlage einige Chancen des Lernens mithilfe digitaler Medien aufzeigen, besonders im Hinblick auf die Motivation der Lernenden.

Künstliche Intelligenz

Maschinelles Lernen

Smarte Lösungen für Probleme werden heute kaum noch manuell programmiert. Bei einem Smartphone mit mehr als zehn Millionen Codezeilen wäre dies auch eine sehr mühselige Aufgabe. Stattdessen wird die Fähigkeit des Lernens programmiert. Diese aktuellen Entwicklungen auf dem Gebiet der KI markieren einen Paradigmenwechsel.

Maschinelles Lernen stellt in diesem Zusammenhang ein grundlegendes Teilgebiet der künstlichen Intelligenz dar. Es zielt darauf ab, Maschinen und Systeme zu entwickeln, die ohne die genaue Programmierung eines konkreten Lösungswegs, automatisiert sinnvolle Ergebnisse liefern. Die speziellen Algorithmen erlernen dabei aus vorliegenden Beispieldaten Modelle, die dann auch auf neue Daten angewendet werden können. Dabei gilt: Je größer die Datenmenge, auf die die Algorithmen zugreifen können, desto mehr lernen sie. Entsprechend kann KI sich selbst nur weiterentwickeln, wenn das Maschinelle Lernen als Unterdisziplin ebenfalls Fortschritte verzeichnet. Zwar muss auch beim Maschinellen Lernen weiterhin der Mensch programmieren, doch programmiert er nicht mehr die fertigen Lösungen. Stattdessen entwickelt er Programme, die mithilfe von Trainingsdaten die Lösung selbst erlernen.

Beispiele für den Einsatz solcher Systeme sind die personalisierten Produktempfehlungen bei Amazon, die Gesichtserkennung bei Facebook sowie Vorschläge für die schnellste Route bei Google Maps.

Bezogen auf das Maschinelles Lernen unterscheidet man grundsätzlich drei Methoden: Überwachtes Lernen, nicht-überwachtes Lernen und bestärkendes Maschinelles Lernen. Die beiden ersten angebrachten Formen des Lernens werden unter dem Punkt „Methoden“ bzw. „Deep Learning“ näher ausgeführt.

Bestärkendes Maschinelles Lernen

Diese Form des Maschinellen Lernens braucht kein Ausgangsdatenmaterial, um das lernende System zu trainieren. Das Wissen entsteht stattdessen durch viele verschiedene Simulationsläufe. Dabei werden Lösungen und Strategien auf der Grundlage von erhaltenen Belohnungen generiert. Dieses bestärkende Lernen ist von allen angebrachten Methoden dem Lernen des Menschen am ähnlichsten.

Deep Learning

Die größten KI-Erfolge basieren derzeit auf Neuronalen Netzen, auch „Deep Learning“ oder „Tiefes Lernen“ genannt. Beispielsweise wären moderne Übersetzungs- und Bilderkennungssysteme ohne Neuronale Netzte nicht denkbar.

Als „Deep Learning“ bezeichnet man ein Teilgebiet des Maschinellen Lernens, welches mit eben diesen Neuronalen Netzen arbeitet. Sie verarbeiten die Eingangsinformationen in mehreren Schichten und stellen am Ende das Ergebnis bereit.

Beispiele für den Einsatz von Neuronalen Netzen finden sich in der Industrie bei der Qualitätskontrolle, in der Robotersteuerung oder der Kapazitätsplanung. Auch das Marketing nutzt Neuronale Netze, um beispielweise, um Zielgruppen zu bestimmen und Konsumanalysen durchzuführen. Weiterhin unterstützen Neuronale Netze KI-Anwendungen beim Dateimanagement sowie der Spracherkennung. Im alltäglichen Leben finden Neuronale Netze Anwendung bei Optimierung von Fahrplänen sowie Ampelschaltungen und nicht zuletzt als das „Gehirn“ hinter Alexa, Siri und Co.

Leider ist das Verständnis der theoretischen Grundlagen des Tiefen Lernens teilweise noch lückenhaft. Daher ist das Erarbeiten dieser theoretischen Grundlagen einer der wichtigsten gegenwärtigen Forschungsschwerpunkte in der KI-Forschung.

Das Netzwerk aus miteinander verbundenen Neuronen simuliert quasi den Aufbau und die Abläufe im menschlichen Gehirn. Auch unser Gehirn besteht aus einer Vielzahl von Neuronen, die untereinander mit Synapsen verbunden sind. Hierbei ist zwischen eingehenden und ausgehenden Verbindungen zu unterscheiden. Über die eingehenden Verbindungen erhält ein Neuron elektrische Signale von einem anderen. Überschreitet die elektrische Ladung eine gewisse Grenze, gibt das geladene Neuron ein elektrisches Signal an andere Neuronen ab. Dieses Zusammenspiel von Milliarden an Neuronen versetzt den Menschen in die Lage, Sinneseindrücke zu verarbeiten und nicht zuletzt zu denken. Auf diesem Prinzip basieren auch künstliche Neuronale Netzwerke, um so Daten erkennen und interpretieren zu können.

Die Neuronen in einem Neuronalen Netz arbeiten in kleinen Datenverarbeitungseinheiten. Sie sind schichtweise angeordnet. Die verschiedenen Schichten wiederum bestehen aus vielen Knotenpunkten. Diese sind äquivalent zu den Neuronen im menschlichen Gehirn.

Zu Beginn müssen die Daten in Zahlenwerte transformiert werden. Denn im Gegensatz zum menschlichen Gehirn verarbeiten künstliche Neuronale Netze ausschließlich numerische Werte und keine elektrischen Reize.

Von der ersten Schicht, der Eingabeschicht, ausgehend leitet jeder Knotenpunkt seinen Wert an alle mit ihm verbundenen Knoten in der Aktivierungsschicht weiter. Die Aktivierungsschicht simuliert biologische Neuronen und entscheidet, ob ein Signal weitergegeben wird und wenn ja, in welcher Höhe es weitergegeben wird.

Um nun aus den vorliegenden Daten zu lernen, erhält jede Knotenverbindung ein Gewicht sowie ein Bias, also ein zusätzliches Neuron mit gleichbleibendem Schwellwert, für die Bewertung und Interpretation von Informationen. Die Bias sind wie flexible Schrauben in einem Netzwerk, die überhaupt erst das Lernen ermöglichen. Wichtige Eingabewerte werden dann durch die Gewichte und die Bias in ihrer Signalstärke verstärkt – eher unwichtige werden abgedämpft. Die Gewichtung wird mithilfe der Verbindung bestimmt und gibt an, wie hoch der Einfluss der Daten auf das Neuron ist: ein positives Gewicht übt auf ein anderes Neuron einen verstärkenden Einfluss aus – ein negatives hingegen hat eine hemmende Wirkung. Beim menschlichen Gehirn geschieht dies durch die „Überladung“ des Neurons mit elektrischer Energie. Je mehr Aktivierungsschichten vorhanden sind, desto genauer kann das Neuronale Netz Informationen filtern und ordnen.

Das gleiche Prozedere wiederholt sich dann zwischen der Aktivierungs- und der Ausgabeschicht. Die Anzahl der Knotenpunkt in der Ausgabeschicht entspricht dabei der Anzahl der Kategorien, in die die Informationen eingeordnet werden sollen.

Von Deep Learning spricht man dann, wenn mehr als eine Aktivierungsschicht existiert. Je mehr Aktivierungsschichten ein Netz aufweist, desto tiefer ist es. Werden weitere Knotenpunkt zu der Aktivierungsschicht hinzugefügt, sodass ein sehr breites Netzwerk entsteht, spricht man vom sogenannten „Wide Learning“. Auf diese Weise lassen sich Neuronale Netze bis zu einem gewissen Grad in ihrer Effizienz optimieren.

Deep Learning lässt sich für überwachtes- und nicht-überwachtes Lernen einsetzen.

Überwachtes Lernen

Beim überwachten Lernen werden Daten klassifiziert, wenn für das Anlernen des Neuronalen Netzes benannte oder „gelabelte“ Daten vorhanden sind. Für ein Datensatz bestehend aus Hunde- und Katzenbildern beispielsweise wäre für jedes Bild die korrekte Bezeichnung, also „Hund“ für Hundebilder und „Katze“ für Katzenbilder, vorhanden.

Nicht-überwachtes Lernen

Wenn keine solch beschrifteten Daten vorliegen, wird das nicht-überwachte Lernen eingesetzt. Hierbei ist das Deep Learning in der Lage, selbstständig ein Clustering der Bilder vorzunehmen. Unter „Clustering“ versteht man die Zuordnung von Bildern anhand von visuellen Merkmalen zu einer Gruppe oder Kategorie. Dem Algorithmus ist dabei, im Gegensatz zum überwachten Lernen, nicht bewusst, dass es beispielsweise Hunde oder Katzen auf den jeweiligen Bildern erkennt. Um die Bilder zu unterscheiden und daraufhin in Gruppen einzuordnen, benötigt die KI zahlreiche Vergleiche dieser Bilder.

Neben diesen beiden Beispielen des überwachten und nicht-überwachten Lernens gibt es noch einige weitere Methoden des Deep Learnings wie die Lineare Regression oder die Dimensionsreduktion.

Abbildung 1

Zusammenhang zwischen KI, Maschinellem Lernen und Deep Learning

Die benannten Begriffe werden häufig nicht trennscharf verwendet. Gemeinsam ist allen, dass sie auf Algorithmen, also eindeutigen Handlungsvorschriften zur Lösung eines Problems, basieren. Künstliche Intelligenz definiert Herausforderungen, die es zu lösen gilt, und entwickelt dazu Lösungsansätze. Beim Maschinellen Lernen wiederum steht das Erlernen im Vordergrund. Das Tiefe Lernen stellt in diesem Zusammenhang derzeit einige der leistungsfähigsten Ansätze des maschinellen Lernens bereit.

Abbildung 2

Lernen von und mit KI – Analyse von Lernverhalten

Das Lernen mithilfe digitaler Technologien nimmt einen immer größeren Bereich ein – sowohl in der schulischen bzw. universitären Bildung als auch in der betrieblichen Weiterbildung. Die digitalen Technologien eröffnen bisher ungekannte Möglichkeiten. Statt eines einfachen Textbuches oder eines Tafelbildes können im Unterricht Musikstücke, Animationen und ganze Videos verwendet werden. Damit geht jedoch die Frage einher, wie aus dieser Fülle neuer Möglichkeiten die optimalen, zur Lernsituation passenden Elemente ausgewählt- und wann diese den Lernenden zum möglichst geeigneten Zeitpunkt zur Verfügung gestellt werden sollen.

Eine allgemeingültige Antwort auf diese Frage gibt es nicht. Schließlich ist das Lernen ein höchst individueller Vorgang. In Anbetracht von beispielsweise zunehmenden Klassengrößen und damit einhergehend von einem verringerten Überblick der Lehrkraft über die Klasse scheint es jedoch durchaus sinnvoll, die vorhandenen Lernkräfte der Schüler*innen mithilfe technischer Mittel zu unterstützen. Allen voran die künstliche Intelligenz ermöglicht es, direkte Einblicke in Vorgänge und Zustände zu gewinnen, die sonst für außenstehende Beobachtende unsichtbar sind. Um solche Zustände messen zu können, wird auf eine Vielzahl an Sensoren zurückgegriffen.

Das Immersive Quantified Learning Lab (iQL) beispielsweise hat eine solche Lernumgebung mit technologiebasierten, interaktiven Kommunikationsmedien erschaffen. Unter der Verwendung von intelligenten Analyse- sowie Machine-Learning-Verfahren sollen dadurch individuelle Unterstützungsmaßnahmen für jede Altersgruppe bereitgestellt werden. Das iQL gibt darüber hinaus Einblick in die neusten Sensoren-Technologien sowie wie diese in Lern- und Arbeitsszenarien verwendet werden können, um den kognitiven Zustand von Versuchspersonen zu messen und um Bedingungen zu schaffen, die die kognitive Belastung verringern und damit die Effizienz erhöhen.

Beispiel Vokabeltest

Ein Beispiel für die verwendete Sensoren-Technologie ist ein Vokabeltest, der das individuelle Selbstvertrauen der Lernenden anhand deren Blickbewegung erfasst.
Hierbei ist der Eye-Tracker in eine unauffällige, schwarze Sensorleiste direkt unterhalb des Bildschirms angebracht. Er misst zum Beispiel, wie lange Fragen und Antworten gelesen werden, wie oft zwischen Fragen und Antworten hin- und hergeschaut wird oder wie lange der Blick auf einer Antwort bleibt, bis diese angeklickt wird. Basierend auf diesen charakteristischen Mustern kann mithilfe von KI das Selbstvertrauen der Proband*innen bestimmt- und auf dieser Grundlage der Test verändert werden. Beispielsweise können bei Unsicherheiten ähnliche Aufgaben wiederholt angezeigt werden.

Um Dinge wie das Selbstvertrauen oder Verständnis von Teilnehmenden vom Computer ermitteln zu lassen, muss mittels KI bzw. dem Maschinellen- sowie dem Tiefen Lernen ein Klassifizierer trainiert werden. Dazu werden zunächst mit diversen Sensortechnologien Trainingsdaten von den Lernenden erhoben. Basierend darauf können dann Algorithmen Muster in den Daten ermitteln und charakteristische Zusammenhänge erkennen, wie in dem Abschnitt „Neuronale Netze“ bereits erklärt. Auf diese Weise kann der Klassifizierer anschließend auf Daten unbekannter Personen angewendet werden und somit korrekte Vorhersagen über deren Lernzustände treffen.

Abbildung 3

Auf den beiden Bildern sieht man Messdaten, die während zweier Vokabeltests erhoben wurden. Bei dem „Tippen“-Test links erhielten die Teilnehmenden Fragen auf ihr Smartphone und mussten die Antworten eingeben. Bei dem rechten „Handschrift“-Test hingegen wurden die Fragen auf einem Computer mit Touchscreen angezeigt und die Teilnehmenden mussten ihre Antworten mithilfe eines speziellen Stifts namens „Stylus“ auf den Bildschirm schreiben. Die Darstellungen zeigen jeweils ein erfasstes Feature: Beim „Tippen“-Test wurde die mittlere Tippgeschwindigkeit auf dem Bildschirm-, beim „Handschrift“-Test die mittlere Strichgeschwindigkeit gemessen.

Bezogen auf das Tippen reicht es aus, das Feature der Tippgeschwindigkeit zu betrachten, um zwischen Personen mit hohem und niedrigem Selbstvertrauen unterscheiden zu können. Im Falle des „Handschrift“-Test hat sich gezeigt, dass die Schreibgeschwindigkeit stark von der Person abhängt, jedoch nicht unbedingt im Zusammenhang mit dem Selbstvertrauen der betreffenden Person steht. Die Schreibgeschwindigkeit als einzige Eigenschaft heranzuziehen, würde für eine zuverlässige Messung nicht ausreichen. Eine korrekte Vorhersage wäre dann möglich, wenn man weitere Features beim Schreiben wie Winkel, Absetzen des Stifts und den Druck berücksichtigen würde.

Dieses Beispiel hat gezeigt, dass sich mithilfe moderner Technik durchaus das Lernverhalten von Probanden erfassen lässt. Die durch KI gewonnen Daten können in diesem Zusammenhang analysiert werden, um somit kognitive Zustände zu bestimmen, Lernprobleme zu identifizieren und daraufhin individuelle Lernvorschläge zu machen.

Lernen von und mit KI – Digitales Lernen motiviert

Das Lernen mithilfe neuster Technologien individuell zu gestalten, ist ein wesentlicher Schwerpunkt der KI-Forschung im Bildungssystem. Dabei wird jedoch ein weiteres wichtiges Hauptaugenmerk oftmals vernachlässigt – die Motivation, die digitale Medien mit sich bringen können, für Lernprozesse sinnvoll zu nutzen. Die Bereitschaft und Motivation zum lebenslangen Lernen sind vor allem in unserer digitalen Gesellschaft, die sich ständig und rasant wandelt, von großer Bedeutung. Besonders Kinder haben einen angeborenen Wissensdrang und sind von sich aus motiviert, Neues zu lernen. Doch in der Schule zeichnet sich oftmals ein ganz anderes Bild ab: da können die Lehrkräfte von motivierten Schüler*innen nur träumen und müssen selbst so einiges auffahren, um die Kinder zum (motivierten) Lernen zu bewegen. Digitale Medien können an dieser Stelle unterstützen und das leisten, was die Schule oft nicht schafft: Kinder fesseln und begeistern. Die digitale Welt eröffnet unzählige Möglichkeiten, Wissen interaktiv und ansprechend zu gestalten. So wird ein spannender Zugang zum Lernen geschaffen. Denn…

Digitale Medien bestechen allen voran durch ihre Multimediafähigkeit. Wie eine Zirkusvorführung sind sie somit in der Lage, Kinder zu fesseln und sie in ihren Bann zu ziehen. Diese Eigenschaft lässt sich doch prima auf das Lernen übertragen und nutzen! Der Schulstoff kann auf diese Weise für die Lernenden lebensnah und greifbar aufbereitet werden zum Beispiel in Form von Abenteuerwelten, die in eine spannende Geschichte eingebettet sind. Dies bezeichnet man auch als „Gamification-Ansatz“. Damit wird der dem Menschen angeborenen Wissensdrang angestachelt. Die Kinder begreifen Dinge automatisch in ihrer Ganzheit und wollen sie in der Abenteuerwelt anwenden. Dies ist beispielsweise der Fall, wenn sie mithilfe der richtigen Antworten eine Schatztruhe öffnen. Diese interaktiven und multimedialen Lerninhalte machen deutlich mehr Spaß und befeuern damit die Lernmotivation.

Das wichtigste ist natürlich trotzdem der Lernerfolg. Dieser wird begünstigt durch die vielen Sinne, die während des Lernprozesses angesprochen werden. Die Einbindung von Animationen, Videos, Audiodateien und interaktiven Elementen in Online-Lernprogrammen hilft dabei, Wissen lebendig zu machen und es im Gehirn nachhaltig zu verankern. Wird der Schulstoff in den Abenteuerwelten jenseits der bekannten Aufgabenstellungen angewendet, durchdringen Schüler*innen das Wissen und üben sich nebenbei in der Transferleistung.

Neben der Multimediafähigkeit der digitalen Medien bestechen diese weiterhin dadurch, dass sie individuelles Lernen ermöglichen. Dies ist von großem Vorteil, denn jeder Mensch hat andere Stärken und Schwächen, ein individuelles Lerntempo sowie spezifische Interessen. Die große Fülle an Online-Materialien bietet passende Inhalt für alle Lernenden, damit sie sich ganz individuell mit den unterschiedlichen Themen beschäftigen können. Sie können den Lernstoff, abseits vom Schuldruck, in Ruhe wiederholen oder ein Thema, das sie besonders interessiert, vertiefen.

Außerdem ist das Online-Lernen zeit- und ortsunabhängig, sodass es auf individuelle Tagesabläufe und Termine abgestimmt werden kann. Darüber hinaus können die Online-Inhalte aktualisiert sowie erweitert werden und sich somit immer den neusten Erkenntnissen anpassen.

Digitale Technologien etablieren sich blitzschnell in der Familie und können durchaus den Alltag erleichtern oder einfach nur Spaß machen. Und nicht nur wir Erwachsenen erfreuen uns daran, wenn wir Alexa bitten, „Oh happy day“ zu spielen. Warum sollte man diese Faszination für neue Medien nicht auch beim Lernen nutzen?

In diesem Zusammenhang spricht man vom sogenannten „Damoklesschwert Lernen“. Darunter versteht man die Fähigkeit von Online-Lernangeboten, Kinder derart zu begeistern, dass sie sich freiwillig mit dem Schulstoff beschäftigen. Vor allem Motivationselemente wie ein eigener Avatar sowie Punkte- und Levelsysteme wecken den Spieltrieb bei Kindern, der dann auf sinnvolle Weise mit dem Lernstoff verbunden wird. Gleichzeitig erfahren Kinder etwas über den sinnvollen Umgang mit digitalen Technologien. Sie entwickeln sich von passiven Konsumenten hin zu aktiv Gestaltenden, die digitale Medien clever für bestimmte Ziele einsetzen. Darüber hinaus lernen sie mit und über neue Medien, wie sie KI für sich nutzen können.

Fazit

KI mit ihren Unterdisziplinen Maschinelles- und Tiefes Lernen eröffnet nicht nur Unternehmen viele neue Möglichkeiten des technologischen Fortschritts. Auch in Zukunft werden diese Technologien viele weitere Gesellschafts- sowie Wirtschaftsbereiche und nicht zuletzt den Bildungssektor erobern.

Der Einsatz von KI im Bildungsbereich bringt unzählige Chancen mit sich wie die Individualisierung von Lernprozessen und die Motivation zum Lernen. Um dies jedoch zu gewährleisten, brauchen die Algorithmen riesengroße Datenpools, aus denen sie ihre Informationen entnehmen. In diesem Zusammenhang werden Probleme mit dem Datenschutz erkennbar. Weiterhin darf der Einsatz von digitalen Medien immer nur dann erfolgen, wenn er auch wirklich sinnvoll ist. Die aufgezeigten Technologien sind dazu da, Lehrkräfte zu unterstützen und nicht zu ersetzen. Eine solche Unterstützung der Lehrenden ist jedoch nur dann möglich, wenn diese einerseits offen gegenüber den neuen Technologien sind und andererseits selbst über gewisse digitale Kompetenzen verfügen.

Klar ist und bleibt: Der Mensch definiert und legt die Anwendungsgebiete von KI fest. Der Grad an Autonomie des Systems darf dabei nicht nur der technischen Limitierung der KI unterliegen. Auch rechtliche und ethische Rahmenbedingungen sowie die Forderungen nach Datensicherheit müssen hier die entsprechenden Grenzen setzen.