Künstliche Intelligenz und Maschinelles Lernen mit Entscheidungsbäumen

Kernidee

Die Unterrichtsreihe vermittelt Schüler:innen ein grundlegendes Verständnis dafür, wie datenbasierte Entscheidungsbäume funktionieren – als Beispiel für einfache KI-Systeme. Ausgangspunkt ist ein alltagsnaher Kontext mit dem Beispiel personalisierter Werbung auf Onlineplattformen wie Instagram. Die Erarbeitung erfolgt über anschauliche Materialien und wird unterstützt durch das digitale Werkzeug CODAP. Schrittweise erwerben die Lernenden Kompetenzen im datenbasierten Erstellen, Vergleichen und Optimieren von Entscheidungsbäumen.

Dabei sind uns folgende Leitgedanken wichtig:

Anschluss an Alltagserfahrungen

Zu Beginn reflektieren die Schüler:innen eigene Erfahrungen mit Werbung auf Onlineplattformen. Sie erschließen, welche Informationen über Nutzer:innenprofile gesammelt werden, und erkennen, dass Vorhersagen auch für unvollständige Profile möglich sind. Dies schafft einen motivierenden Ausgangspunkt für die Auseinandersetzung mit datenbasierten Entscheidungsprozessen.

Von informellen Strategien zum formalen Algorithmus

In einem geführten Prozess entwickeln die Lernenden zunächst intuitiv Entscheidungsregeln mit Hilfe von haptischen Datenkarten. Darauf aufbauend lernen sie, wie man einstufige und mehrstufige Entscheidungsbäume systematisch erstellt und evaluiert. Sie vergleichen Entscheidungsbäume anhand der Fehlklassifikationen und entwickeln erste Kriterien zur Optimierung von Vorhersagen. Durch diesen Zugang wird schrittweise verständlich, wie KI-Systeme Entscheidungen automatisiert auf Basis von Daten treffen.

Einsatz digitaler Werkzeuge zur Unterstützung datenbasierter Entscheidungen

Das browserbasierte Werkzeug CODAP wird eingesetzt, um mit größeren Datensätzen effizient arbeiten zu können. Es visualisiert Entscheidungsbäume, ermöglicht automatisierte Datensplits, berechnet Fehlklassifikationsraten und erlaubt das Vergleichen und Testen von Vorhersagemodellen. Die Schüler:innen erkunden so algorithmische Verfahren zur Klassifikation, wie sie auch in vielen KI-Anwendungen verwendet werden, und vertiefen ihr Verständnis durch wiederholte Anwendung, Analyse und Optimierung von Entscheidungsbäumen in CODAP.

Zielgruppe

Informatik und Mathematik in Klasse 8 bis 10

Empfehlung: Klasse 9

Inhaltsfeld

“Künstliche Intelligenz und maschinelles Lernen” (insbesondere der Schwerpunkt: überwachtes Lernen mit Entscheidungsbäumen)

Vorkenntnisse

Prozentbegriff

Zeitlicher Umfang

 8 bis 10 Unterrichtsstunden a 45 Minuten

Leitfragen

  • Wie entstehen personalisierte Empfehlungen auf Onlineplattformen und welche Rolle spielt dabei maschinelles Lernen?

  • Wie können aus Daten Vorhersagen z. B. über persönliche Interessen von unbekannten Personen abgeleitet werden?

  • Wie werden Entscheidungsbäume als Vorhersageinstrument systematisch erstellt – vom einfachen Datensplit bis zum vollständigen Algorithmus?

  • Wie lassen sich die Stärken und Grenzen automatisch erzeugter Entscheidungsbäume erkennen und bewerten?

Ziele

Bezogen auf den Kontext personalisierte Werbung:

Die SuS…

… können am Beispiel Instagram erläutern, mit welchem Ziel personalisierte Empfehlungen auf Onlineplattformen geschaltet werden.

… kennen Beispiele für die Art von Daten, die über Profile bei Onlineplattformen vorliegen.

… wissen, dass über manche Profile gewisse Informationen nicht bekannt sind, wenn man sie nicht freiwillig teilt.

… wissen, dass Daten von Profilen genutzt werden, um Interessen vorherzusagen und so personalisierte Empfehlungen zu generieren.

… nennen Pro- und Kontra-Argumente für den Einsatz eines konkreten Entscheidungsbaums im Kontext personalisierter Empfehlungen auf Onlineplattformen

Bezogen auf maschinelles Lernen allgemein:

Die SuS…

… können Begriffe Fall, Merkmal und Ausprägung anhand eines Beispieldatensatzes erläutern.

… beschreiben was Klassifikation ist und wissen, dass diese Art Problemstellung datenbasiert gelöst werden kann.

… verwenden die Begriffe Zielvariable, Prädiktorvariable und Fehlklassifikation im Kontext von Klassifikationsproblemen.

… können die Fehlklassifikationsrate eines Klassifikators (z.B. Entscheidungsbaum) berechnen und als Bewertungskriterium nutzen. 

… erläutern wie datenbasierte Klassifikatoren (z.B. Entscheidungsbaum) durch Computer automatisiert erstellt werden können.

… nehmen die „Perspektive eines Computers“ ein, indem sie mit Daten ohne Kontext arbeiten.

… erläutern, dass es wichtig ist Testdaten zu verwenden, nachdem ein Klassifikator (z.B. Entscheidungsbaum) datenbasiert erstellt wurde

… beschreiben das Phänomen der Überanpassung (engl. Overfitting) als ein Problem bei dem Klassifikatoren für Testdaten schlechter funktionieren als für Trainingsdaten

… nennen allgemeine Bewertungskriterien, die man prüfen kann, wenn man den Einsatz einen Klassifikators (z.B. Entscheidungsbaum) beurteilen möchten  

 

Bezogen auf datenbasierte Entscheidungsbäume:

Die SuS…

… beschreiben die Funktionsweise eines einstufigen Entscheidungsbaums und nutzen dabei die Begriffe Regelknoten, Pfad und Blattknoten. 

… wenden einen Entscheidungsbaum an, um neue Fälle zu klassifizieren.

… erstellen einen einstufigen Entscheidungsbaum mit Hilfe von Datenkarten datenbasiert, indem sie

  • einen Datensplit anhand einer Prädiktorvariable durchführen,
  • Mehrheitsentscheidungen hinsichtlich der Zielvariable in den Teildatensätzen treffen,
  • die Anzahl der Fehlklassifikationen berechnen, und
  • einen einstufigen Entscheidungsbaum als Baumdiagramm repräsentieren.

… vergleichen verschiedene einstufige Entscheidungsbäume anhand der Anzahl der Fehlklassifikationen.

… wenden die Kenntnisse über einstufige datenbasierte Entscheidungsbäume in der digitalen Umgebung von CODAP AN

… können mehrstufige Entscheidungsbäume als hierarchische Entscheidungsregeln anwenden, um Fälle zu klassifizieren.

… erläutern, dass beim datenbasierten Erstellen mehrstufiger Entscheidungsbäume der Datensatz sukzessive durch Datensplits aufgeteilt wird, d.h. in einem Pfad des Entscheidungsbaum wird immer nur mit dem entsprechenden Teildatensatz weitergearbeitet.

… erläutern, dass in unterschiedlichen Pfaden des Entscheidungsbaums mit unterschiedlichen Prädiktorvariablen gearbeitet werden kann.

… präsentieren einen Entscheidungsbaum und dessen Erstellungsprozess.

… unterscheiden und vergleichen kontextbasiertes und datenbasiertes auswählen von Prädiktorvariablen.

… vergleichen Entscheidungsbäume anhand der Fehlklassifikationsrate.

… wählen Prädiktorvariablen systematisch aus, indem sie alle möglichen Prädiktorvariablen ausprobieren und anhand der Fehlklassifikationsrate vergleichen.

… wenden das Abbruchkriterium „Null Fehlklassifikationen“ in einem Pfad des Entscheidungsbaums an.

… verifizieren anhand von Testdaten, dass Entscheidungsbäume die für Trainingsdaten überlegen sind für Testdaten unterlegen sein können (insbesondere große Entscheidungsbäume mit null Fehlklassifikationen für Trainingsdaten gegenüber kleinen Entscheidungsbäumen mit wenigen Fehlklassifikationen).

… begründen das Phänomen der Überanpassung für Entscheidungsbäume so, dass sehr große Entscheidungsbäume häufig für Testdaten schlechter funktionieren als für Trainingsdaten, da finale Entscheidungen in den Blattknoten im Durchschnitt auf weniger Fällen beruhen als bei kleinen Bäumen.

… beschneiden einen Entscheidungsbaum systematisch anhand von Testdaten, um die Fehlklassifikationsrate zu optimieren (engl. Post-Pruning).

Bezogen auf das digitale Tool CODAP:

Die SuS…

… wenden die Basisfunktionen des CODAP Entscheidungsbaumtool an, um einen einstufigen Entscheidungsbaum zu erstellen, indem sie

  • einen Datensplit durchführen, und
  • Mehrheitsentscheidungen für beide Teildatensätze treffen.

…  interpretieren die Darstellung eines Entscheidungsbaums in CODAP, indem sie

  • Häufigkeitsverteilungen der Zielvariable korrekt ablesen, und
  • die Anzahl der Fehlklassifikationen korrekt bestimmen.

 … können mehrstufige Entscheidungsbäume in CODAP erstellen und interpretieren, indem sie

  • Prädiktorvariablen auswählen und in mehrstufigen Entscheidungsbäumen anordnen,
  • in den Blattknoten Mehrheitsentscheidungen für beide Teildatensätze treffen, und
  • Regelknoten im Entscheidungsbaum bei Bedarf wieder abschneiden oder ersetzen.

 … nutzen die „Daten Ausgeben“-Funktion, um einen Entscheidungsbaum und verschiedenen Kennzahlen zu dokumentieren

… legen mit Hilfe der „Daten Ausgeben“-Funktion eine Tabelle an, um verschiedenen Prädiktorvariablen systematisch zu vergleich

… nutzen in CODAP die Möglichkeit Fälle abzulegen und wiederherzustellen, um zwischen Training- und Testdaten zu wechseln.

… beschneiden einen Entscheidungsbaum in CODAP anhand von Testdaten, um die Fehlklassifikationsrate zu optimieren.

Unterrichtsverlauf

Teil 1: Einführung in den Kontext personalisierte Werbung auf Onlineplattformen am Beispiel Instagram
Phase Inhalt Material
30 min

Einführung in den Kontext personalisierte Werbung auf Onlineplattformen am Beispiel Instagram

Zweck der Phase: In dieser Phase soll der Kontext personalisierte Werbung auf Onlineplattformen eingeführt werden, der den allermeisten Schülerinnen und Schülern aus ihrem Alltag bekannt ist. Erfahrungen der Schülerinnen und Schüler mit personalisierten Empfehlungen werden aufgegriffen und die Bedeutung von maschinellem Lernen in diesem Zusammenhang wird erörtert. Ziel dieser Phase ist es einen Lernanlass zu schaffen, sich weiter mit maschinellem Lernen im Kontext personalisierte Werbung auseinanderzusetzen.

Aktion: Diese Phase wird als Kombination aus Lehrvortrag und Plenumsdiskussion gestaltet, strukturiert durch den Einsatz einer PPT-Präsentation.

Einsatz der PPT-Präsentation (Folien_Phase1)

Folie 3 – Was ist personalisierte Werbung?

Zweck der Folie: Es liegt ein Beispiel-Screenshot einer Werbung für Fußballschuhe auf Instagram vor. Damit kann zunächst die Frage aufgeworfen werden, ob es für jedes Profil auf Instagram gleichwahrscheinlich wäre diese Werbung zu erhalten.

Aktion: Diese Frage soll nun zunächst von den Schülerinnen und Schülern basierend auf ihrer eigenen Erfahrung erörtert werden. Sie sollen dabei auch ermutigt werden eigene Erfahrungen mit Werbung oder anderen Empfehlungen auf Onlineplattformen zu teilen.

Mögliche Ergebnisse: Entweder die Schülerinnen und Schüler berichten schon von sich aus, dass Werbung personalisiert auf Interessen abgestimmt ist, oder dies wird zunächst noch offengelassen. Erfahrungsgemäß wissen Schülerinnen und Schüler das aber.

Überleitung: Im nächsten Schritt wird aufgeklärt, dass man sich auf Instagram (und auch auf vielen anderen Plattformen) anzeigen lassen kann, warum man eine konkrete Werbung erhält. Dies funktioniert durch tippen auf die 3 Punkte neben der Anzeige. Die Schülerinnen und Schüler können hier einerseits ermutigt werden, dass in ihrer Freizeit einmal zu tun. Des Weiteren führt dies zum nächsten Schritt mit Folie 3.

Folie 4 – Was weiß eine Onlineplattform über Profile?

Zweck der Folie: Für das Beispiel der vorherigen Folie wird einmal durchgespielt, warum diese konkrete Werbung erschienen ist. Daraus wird deutlich, dass die Onlineplattform Annahmen über persönliche Interessen und Informationen trifft, ohne dass diese aktiv mitgeteilt wurden.

Lässt man sich die Gründe für die Werbung aus Folie 2 anzeigen, erhält man:

  • Personen, die an Musik und Sport interessiert sind
  • Personen zwischen 18 und 30 Jahre
  • Personen mit Hauptstandort Deutschland

Aktion: Nun kann man die Schülerinnen und Schüler zunächst wieder erörtern lassen, wie Instagram diese Dinge über ein Profil wissen kann.

Infos zur Leitung der Diskussion: All diese Informationen (Interessen, Alter, Standort) kann man in seinem Profil angeben. Dies wurde im vorliegenden Profil aber nicht gemacht.  Der Standort kann ermittelt werden, falls GPS Daten geteilt werden, aber die persönlichen Interessen (z.B. Sport) geben die meisten Nutzenden nicht explizit an.

Überleitung: D. h. dies sind Annahmen die über den Profilbesitzer getroffen wurden und sie treffen tatsächlich zu. Dies wirft die Frage auf: Wer macht diese Annahmen? Ein Mitarbeiter von Instagram? Auch diese Frage kann erst einmal von den Schülerinnen und Schülern diskutiert werden.

 Folie 5 – Wie werden Vorhersagen über Profile gemacht?

Zweck der Folie: Die Fragen, die mit der vorherigen Folie motiviert wurden, werden aufgelöst. Die Annahmen oder Vorhersagen der Onlineplattform werden durch Maschinelles Lernen automatisiert erstellt. Dafür kann auch ein kurzer Videoclip (2 Minuten) angeschaut werden, der von Instagram selbst veröffentlicht wurde:

https://de-de.facebook.com/help/instagram/609473930427331/?helpref=uf_share

Folie 6 – 13 –  Datensammlung einer Onlineplattform und Unterscheidung von Profilen

Zweck der Folien: Es wird eine Modellvorstellung aufgebaut, wie eine Onlineplattform Daten über Profile speichert. Außerdem werden Profile wie folgt unterschieden.

Aktion: Die Lehrkraft stellt die Datentabelle vor. In einer Datentabelle bekommt jedes Profil eine Zeile und in jeder Spalte der Datentabelle wird die Ausprägung eines Merkmals hinterlegt. Dabei können Merkmale unterschieden werden:

  • Merkmale die für jedes Profil bekannt sind
  • Merkmale die freiwillig hinterlegt werden
  • Somit können Profile unterschieden werden:
  • Profile für die nur die notwendigen Merkmale bekannt sind
  • Profile für die freiwillig zusätzliche Merkmale wie persönliche Interessen bekannt sind

 

Danach werden nacheinander folgende Frage aufgeworfen und diskutiert:

1.      Kann eine Onlineplattform die dargestellten Informationen über Profile wissen?

2.      Welche weiteren Informationen kann die Plattform über Profile als Daten sammeln?

Informationen für die Lehrkraft zum Leiten der Diskussion:

  • Onlineplattformen erfassen, mit welchen Endgeräten ein Profil genutzt wird
  • Onlineplattformen erfassen die Häufigkeit und Dauer der Nutzung durch ein Profil
  • Viele, viele weitere Dinge werden ebenfalls erfasst (z.B. welchen anderen Profilen gefolgt wird, welche Posts geliket werden etc.)

  

Folien 14 – 22 – In welchem Szenario setzen Onlineplattformen maschinelles Lernen ein?

Zweck der Folien: Der Zusammenhang zwischen Profil, Onlineplattform, Werbetreibenden und personalisierter Werbung kann anhand der Folien noch einmal im Lehrvortrag verdeutlicht werden. Inhaltlich wird dort das abgebildet, was auch im obengenannten Video erklärt wird:

  • Werbetreibende geben ihre Annonce an die Onlineplattform und legen eine Zielgruppe fest
  • Die Onlineplattform hat von einigen Profilen ausreichend Informationen um diese Profile der Zielgruppe zuzuordnen oder davon auszuschließen
  • Für andere Profile mit zu wenigen Informationen, werden Vorhersagen (z.B. zum persönlichen Interesse an Sport) gemacht. Dies basiert auf maschinellem Lernen und den Daten der anderen Profile

Überleitung: Wie genau Maschinelles Lernen funktioniert bleibt unklar und wird auch im Video der Onlineplattform nicht thematisiert. Dem wird in den folgenden Unterrichtsstunden nachgegangen (Lernanlass).

 Wichtige Erkenntnisse: Am Ende dieser Phase sollte die Frage motiviert sein, wie maschinelles Lernen funktioniert, um Vorhersagen über Profile machen zu können, die bestimmte Daten nicht freiwillig teilen. Wie genau dieses maschinelle Lernen funktioniert, ist Thema der nächsten Unterrichtsphasen.

Wichtige Erkenntnisse bis hierher:

Werbung wird auf Onlineplattformen an bestimmte Zielgruppen gerichtet (z.B. Personen mit Interesse an Sport)

Onlineplattformen machen Vorhersagen über persönliche Interessen der Nutzenden  

Die Plattform benötigt dafür in jedem Fall Daten von vielen Personen, die freiwillig ihre persönlichen Daten wie Interessen (Sport, Musik, …) mit der Plattform teilen

Folien_Phase1

Phase Inhalt Material
Einführung 15 min

Einführung in ein erstes kleines Datenbeispiel und Klassifikation

Zweck der Phase: In dieser Phase wird der Kontext der vorherigen Phase aufgegriffen und mit einem kleinen Datenbeispiel konkretisiert. Mit diesem Datenbeispiel wird eine Klassifikationsaufgabe gestellt und ergänzend werden die Begriffe Zielvariable und Prädiktorvariable eingeführt. Diese Phase leitet die folgende Arbeitsphase ein, in der dann eine Klassifikationsaufgabe eigenständig bearbeitet werden soll.

Aktion: Diese Phase wird als Kombination aus Lehrvortrag und Plenumsdiskussion gestaltet, strukturiert durch den Einsatz einer PPT-Präsentation.

Einsatz der PPT-Präsentation  (Folien_Phase2)

Folie 3

Zweck der Folie: Es wird eine konkrete Werbeanzeige eingeführt, für die im Anschluss der Prozess der personalisierten Empfehlung einmal mit einem kleinen Datenbeispiel durchgespielt wird.

Information durch die Lehrkraft:

  • Auf dieser Folie ist ein Beispiel für eine Werbung für ein Onlinespiel abgebildet
  • Die Zielgruppe für die Werbung sind Personen, die häufig Onlinespiele spiele

Folie 4

Zweck der Folie: Es soll die Frage aufgeworfen werden, was Onlineplattformen benötigen, um eine Vorhersage für Profile zu erstellen. Dafür wird angeknüpft an die Ergebnisse der vorherigen Unterrichtsphase, da nun darauf eingegangen wird, dass die Informationen über Zielgruppenzugehörigkeit für einige Profile vorliegt (Onlinespiele: „Häufig“ oder „Selten“), für andere Profile aber nicht (hier der Einfachheit halber nur ein Profil Nummer 15).

Aktion: Die Lehrkraft wirf die Frage auf, ob mit diesen Daten bereits eine Vorhersage für Profil Nummer 15 gemacht werden kann? Dies soll zunächst von den Schülerinnen und Schülern diskutiert werden.

Überleitung: Erfahrungsgemäß erkennen die Schülerinnen und Schüler nach mehreren Wortmeldungen, dass die vorliegenden Informationen nicht ausreichen. Ggf. äußern sie sogar schon, dass man weitere Informationen über die Profile benötigt. Falls das nicht kommt, kann dies aber auch einfach von der Lehrkraft eingebracht werden. 

Folie 5

Zweck der Folie: Es soll eingeführt werden, dass auf Onlineplattformen je Profil verschiedene Informationen als Daten gesammelt werden, sodass ein Profil durch verschiedene Eigenschaften beschrieben werden können.

Aktion: Zuerst wird die Bedeutung der 3 zusätzlichen Variablen geklärt.

  • Computer vorhanden – Ja/Nein
  • Feste Spielekonsole vorhanden – Ja/Nein
  • Häufigkeit der Nutzung von Instagram – Häufig/ Selten

Überleitung: Normalerweise werden viel mehr Daten erfasst, wie in der letzten Stunde schon besprochen, aber In dieser Stunde fokussiert man zunächst diesen kleinen Datensatz, um sich der Methode des Vorhersagens zu nähern.

 Folie 7

Zweck der Folie: Es werden die Fachbegriffe Klassifikation, Trainingsdaten, Trainingsbeispiel, Zielvariable und Prädiktorvariable eingeführt. Außerdem wird die Aufgabenstellung für die nächste Unterrichtsphase erklärt.

 Folie 8

Zweck der Folie: Diese Folie kann während der nächsten Phase aufgelegt bleiben. Außerdem können daran Nachfragen zum Datensatz bearbeitet werden.

Wichtige Erkenntnisse: Am Ende dieser Phase sollten die Schülerinnen und Schüler die vorgestellten Fachbegriffe kennen, die Struktur des Beispieldatensatzes verstanden haben und die Aufgabestellung der nächsten Phase erfasst haben.

Folien_Phase2

Arbeitsphase 15 min

Klassifikationsaufgabe: Eine Person soll klassifiziert werden, als jemand der häufig oder selten Onlinespiele spielt.

Zweck der Phase: Die Schülerinnen und Schüler erkunden mit intuitiven selbstgewählten Vorgehensweisen, wie sie Fall Nummer 15 hinsichtlich der Zielvariable Onlinespiele klassifizieren würden. Hier wird die Perspektive eingenommen, die sich aus dem Eingangsbeispiel ableitet: Wie wird für eine neue Person basierend auf Daten bekannter Personen eine Zielvariable vorhergesagt? Dabei nutzen die Schülerinnen und Schüler den kleinen Datensatz, um die Auswahl zu begründen. Sie sollen die Herausforderungen erkennen und erste naive Strategien entwickeln. Eigene Argumentationsmuster können hier datenbasiert, aber auch kontextbasiert sein.

Aktion: Die Schülerinnen und Schüler arbeiten in Kleingruppen mit den sogenannten Datenkarten. D.h. sie bekommen den kleinen Datensatz ausgeschnitten in einzelne Zeilen (Datenkarten), sodass jeder Fall des Datensatzes auf einer Datenkarte repräsentiert ist. Das ermöglicht es händisch gewissen Operationen mit den Daten (z.B. Gruppieren, Sortieren, Filtern) vorzunehmen.

Für 14 Fälle von Personen ist bekannt, ob sie häufig oder selten Onlinespiele spielen (Zielvariable). Außerdem sind über alle Personen 3 weitere Merkmale bekannt und zwar ob sie eine Konsole besitzen, ob sie einen Computer besitzen und ob sie häufig oder selten Instagram nutzen (Prädiktorvariablen).  Anhand der Prädiktorvariablen soll versucht werden abzuleiten, ob die Person für die die Zielvariable unbekannt ist häufig oder selten Online spiele spielt.

Ausschneidevorlage

Arbeitsblatt_1_Klassifikation

Besprechung 10 min

Zweck der Phase: Verschiedene Ideen sammeln, wie man Person 15 klassifizieren könnte und wie man das begründen könnte. Den Schülerinnen und Schülern wird hierbei deutlich, dass es anspruchsvoll ist datenbasiert zu argumentieren und dass es nicht zwingend die eine richtige Antwort gibt.  So wird ein Lernanlass geschaffen, um sich anschließend mit der Methode des Datensplit zu beschäftigen, mit der man diese Problemstellung systematisch angehen kann.

Aktion: Alle Gruppen stellen ihre Antwort und ihre Begründung vor.  Erfahrungsgemäß kommen die Schülerinnen und Schüler zu einer Einschätzung, aber die Begründungen sind häufig eher unsystematisch oder recht kompliziert, was an dieser Stelle des Unterrichts gar nicht schlimm ist. Um so mehr können die Schülerinnen und Schüler später die systematische Lösung mit dem Datensplit wertschätzen. Die Lehrkraft kann bei jeder Gruppe rückfragen, ob sie sich sicher sind, dass ihre Entscheidung zutrifft.

Exemplarische Antworten von SuS:

  • Bezugnahme zu einzelnen ähnlichen Fällen: „Es gibt zwei Fälle die keine Konsole haben, aber einen Computer besitzen. Diese sind beide Häufig Spieler“
  • Bezugnahme zu einem Prädiktor: „Personen die keine Konsole haben spielen eher Selten“
  • Bezugnahme zu mehreren Prädiktoren sind selten kommen aber auch vor. Die Formulierungen werden dabei häufig komplex

 

Auf die Nachfrage, ob die Lernenden sich sicher sind, wird es in den seltensten Fällen ein klares „Ja“ geben.

Die Lehrkraft kann alle Vorschläge wertschätzend behandeln und es muss an dieser Stelle gar nicht bewertet werden, wie gut die Vorhersagen oder die Vorgehensweisen sind. Folgende Erkenntnisse sollten aus der Besprechung hervorgehen und ggf. durch die Lehrkraft zusammengefasst werden:

  • Es gibt hier nicht die eindeutig richtige Antwort
  • Die Problemstellung, Vorhersagen aus Daten abzuleiten ist nicht einfach
  • Wir Treffen Entscheidungen unter Unsicherheit und können ggf. für beide Wahlmöglichkeiten plausible Erklärungen aus den Daten ableiten.
  • Im besten Fall können wir uns begründet auf eine Wahlmöglichkeit festlegen und können eine Einschätzung angeben für wie wahrscheinlich wir es halten, dass unsere Auswahl tatsächlich zutrifft.

 

Motivation für den nächsten Abschnitt: Im nächsten Unterrichtsabschnitt geht es darum eine systematische Methode kennenzulernen für das Festlegen einer Entscheidung und das Bewerten der Entscheidungsqualität.

Einführung 10 min

Zweck der Phase: Es wird eine Perspektivwechsel vorgenommen, von „eine neue Person klassifizieren“ zu „eine Regel entwickeln, um erstmal alle Fälle aus dem Datensatz möglichst fehlerarm zu klassifizieren“. Aufbauend auf diesem Perspektivwechsel wird die Methode des Datensplit eingeführt als eine systematische Herangehensweise für fehlerarmes Klassifizieren.

Überleitung: Als Überleitung wird formuliert, dass nun ein Perspektivenwechsel vorgenommen wird. Das Endziel bleibt zwar bestehen, für neue Personen die Ausprägung der Zielvariable vorherzusagen. Allerdings konzentrieren wir uns nun zunächst darauf eine Entscheidungsregel zu finden, die die Fälle in unserem Datensatz möglichst fehlerarm klassifiziert. Die Annahme ist, dass eine solche Entscheidungsregel dann auch gut geeignet ist eine Menge neuer Fälle auch möglichst fehlerarm vorherzusagen. Das muss natürlich geprüft werden.

Der Begriff Trainingsdatensatz wird eigeführt. Dies ist der vorliegende Datensatz zum Erstellen der Entscheidungsregel bzw. zum Trainieren.

Ankündigung: Wir lernen nun eine Methode kennen, bei der eine Entscheidungsregeln zunächst mit nur einem Merkmal verwendet wird. Es handelt sich um die Methode des Datensplit mit Mehrheitsentscheidung.  Nach erfolgtem Split (d.h. Aufteilen des Datensatz in zwei Teile) wird in den beiden Teilgruppen eine Vorhersage nach dem Mehrheitsprinzip getroffen und die Anzahl der Fehlklassifikationen bestimmt. (Falls schon eine Gruppe in der vorherigen Arbeitsphase auf diese Methode gekommen ist, kann das natürlich entsprechend aufgegriffen und nochmal gemeinsam erarbeitet werden. Das ist erfahrungsgemäß aber eher nicht zu erwarten.)

Dieses Verfahren macht man mit allen drei verfügbaren Prädiktorvariablen und wählt dann die aus, die die geringste Fehleranzahl produziert. Das sollen die SuS anschließend selbstständig als Aufgabe durchführen

Aktion: Der Perspektivwechsel und die Methode des Datensplit wird durch die Lehrkraft exemplarisch für die Prädiktorvariable FesteKonsole vorgestellt. Dabei unterstützt die Präsentation Folien_Phase2 (10-19).

Einsatz der PPT-Präsentation Folien_Phase2

Folien 10 – 19

Zweck der Folien: Mit diesen Folien wird durch die Lehrkraft der Prozess vorgestellt, wie man aus einem Datensatz mit binären Prädiktorvariablen einen einstufigen Entscheidungsbaum herstellt. Dabei wird auf 4 Prozesskomponenten eingegangen:

1.      Einen Datensplit durchführen (Folien 11 – 14)

2.      Per Mehrheitsentscheidung einen einstufigen Entscheidungsbaum definieren (Folien 15 – 16)

3.      Den einstufigen Entscheidungsbaum mit Fehlklassifikationen evaluieren (Folie 17)

4.      Den einstufigen Entscheidungsbaum repräsentieren (Baumdiagramm & verbal) (Folie 18-19)

Folien_Phase2 11 – 19

Arbeitsphase 10 min

Zweck der Phase: Die Schülerinnen und Schüler führen Datensplits selbst händisch mit Datenkarten durch. Diese Aktion wiederholt das in der vorherigen Phase erlangte Wissen über Datensplits und vertieft es durch die haptische Ebene und das eigenständige Durchführen von Datensplits zum Erstellen einstufiger Entscheidungsbäume. Dieses Erlebnis soll auch während der späteren Softwarenutzung als Referenzpunkt dienen, um zu verstehen was in der Software automatisiert im Hintergrund und „nicht sichtbar“ passiert.

Aktion: Die Schülerinnen und Schüler nutzen weiterhin die Datenkarten, um nun die einstufigen Entscheidungsbäume mit den Prädiktorvariablen „Computer“ und „Instagram“ mit Hilfe von Datensplits zu erstellen, zu evaluieren und zu dokumentieren.

Einsatz der PPT-Präsentation Folien_Phase2

Folie 22.

Enthält die Aufgabenstellung für die folgende Phase.

Folien_Phase2 21

Besprechung 5 min

Tafelbild: Vergleichen von Datensplits auf der Basis verschiedener Prädiktorvariablen

Zweck der Phase: Die formale Darstellung eines Datensplit und die Erstellung, Darstellung und Evaluation eines einstufigen Entscheidungsbaums wird wiederholt und gesichert. Außerdem wird das Vergleichen von verschiedenen Entscheidungsbäumen anhand der Anzahl der Fehlklassifikationen eingeführt und an der Tafel notiert.

Aktion: Der Datensplit für FesteKonsole wird nun in abstrahierter Form als einstufiger Entscheidungsbaum an die Tafel gebracht.

Die anderen beiden Datensplits zu den Variablen Computer und Instagram werden durch die Schülerinnen und Schüler ergänzt (siehe Tafelbild.docx). Dann werden gemeinsam noch einmal die zweite und dritte Komponente des Prozesses erarbeitet, wie diese Datensplits zu bewerten bzw. zu vergleichen sind. Folgende zwei Schritte sind dabei wichtig:

1.      Treffen einer Mehrheitsentscheidung in beiden Ästen

2.      Ermitteln der Gesamtanzahl von Fehlklassifikationen

Mehrheitsentscheidungen und Anzahl der Fehlklassifikationen werden für alle Variablen ebenfalls an der Tafel notiert.

Einsatz der PPT-Präsentation Folien_Phase2

Folie 23
Die Folie wird angeworfen während das Tafelbild erstellt wird.

Folien 24-26
Die Folien werden zum verifizieren des Erstellten Tafelbilds genutzt. Außerdem wird damit dann die Vorhersage für den „neuen“ Fall thematisiert.

Es sollte hier Zeit investiert werden, damit alle die Darstellungen nachvollziehen können und verstehen, wie man aus einem Datensplit mit Mehrheitsentscheidung erst eine Entscheidungsregel formuliert und dann anhand der dargestellten Zahlen die Anzahl der Fehlklassifikationen ermittelt. Diese Darstellung eines Entscheidungsbaums ist grundlegend für die kommenden Unterrichtsphasen. Abschließend wird entschieden, welcher einstufige Entscheidungsbaum anhand der Anzahl der Fehlklassifikationen am besten zu bewerten ist (Korrekte Lösung: FesteKonsole). Dieser wird nun genutzt, um Fall 15 zu klassifizieren.

Nun hat man eine Entscheidung für Fall 15, um diesen begründet zu klassifizieren und man kann sogar beziffern, für wie wahrscheinlich man es hält, dass das zutrifft, indem man den Trainingsdatensatz nutzt, um dies zu schätzen. Vorsicht, hier darf man nicht einfach die Fehlklassifikationsrate heranziehen, sondern muss berücksichtigen, dass die Vorhersage „selten“ lauten. Man möchte als die Wahrscheinlichkeit schätzen, dass die Vorhersage korrekt ist unter der Bedingung, dass „selten“ vorhergesagt wird. Dies wird auf Folie 26 der Präsentation Folien_Phase2 gemacht.

Tafelbild.docx

Folien_Phase2

Sicherung

In einer Sicherung wird rekapituliert und an der Tafel festgehalten was die Zielstellung war und welche Methode wir nun kennen gelernt haben

Zielstellung

  • Einstufigen Entscheidungsbaum datenbasiert erstellen, den Datensatz möglichst fehlerarm zu klassifizieren und damit dann Vorhersagen treffen zu können 
  • Quantifizieren von Unsicherheit für Vorhersagen

 

Methode/ Vorgehensweise mit einer Abfolge von Schritten:

  • Einstufigen Entscheidungsbaum erstellen
  1. Datensplit durchführen mit einer Prädiktorvariable
  2. Mehrheitsentscheidung in beiden Teildatensätzen durchführen
  3. Evaluation durch die Anzahl der Fehlklassifikationen
  4. Repräsentation als Baumdiagramm
  • Anschließend Vergleichen von verschiedenen einstufigen Entscheidungsbäumen und auswählen anhand der Anzahl der Fehlklassifikationen
Überleitung

Abschließend wird folgende Frage aufgeworfen:

Wie könnten wir unsere Vorhersage für die Trainingsdaten noch verbessern?

Schülerinnen und Schüler können eigene Vorschläge einbringen.

Mögliche Antworten:

·       Entscheidungsregel mit mehr als einer Prädiktorvariable erstellen, um noch weniger Fehlklassifikationen zu erhalten (Ausblick auf mehrstufige Entscheidungsbäume möglich) 

·       Einen größeren Datensatz mit mehr Fällen und mehr Variablen nutzen, um einen Entscheidungsbaum zu erstellen

Überleitung (Motivation CODAP): Diese Überlegungen zur Verbesserung unseres Entscheidungsbaums sind mit der bisherigen Methode (manuelles Gruppieren von Datenkarten) nicht sinnvoll umzusetzen, da es sehr mühsam ist, einen noch größeren Datensatz noch häufiger umzugruppieren. Da wir das Prinzip eines Datensplit nun verstanden haben, können wir uns dies von einem digitalen Tool (CODAP) abnehmen lassen. Dies lernen wir in der nächsten Phase kennen.

Phase Inhalt Material
Einführung 10 min

CODAP Basisfunktionen kennenlernen

Zweck der Phase: Die Schülerinnen und Schüler werden mit den Basisfunktionen von CODAP und Arbor bekannt gemacht. Dabei wiederholen sie inhaltlich exakt das was sie vorher mit Datenkarten gelernt haben: Das erstellen und vergleichen einstufiger Entscheidungsbäume. Sie arbeiten in CODAP mit einem etwas größeren Datensatz (53 Fälle, 15 Merkmale)

Aktion: Die Lehrkraft präsentiert im Unterrichtsgespräch die Grundfunktionen des CODAP Entscheidungsbaum-Tools  und geht auf Fragen ein. Dies kann im Lehrvortrag exakt so umgesetzt werden wie im Video_Grundfunktionen_EB. Dabei sollte herausgestellt werden, dass die Darstellungen eines Entscheidungsbaums in CODAP im Wesentlichen den Darstellungen aus der vorherigen Phase entsprechen und das im Hintergrund genau das gleiche passiert was zuvor mit den Datenkarten händisch durchgeführt wurde, nämlich ein Datensplit.

Ein inhaltlicher Punkt der in CODAP neu dazu kommt ist die Bezeichnung der Ausprägungen der Zielvariable als „Positiv“ und „Negativ“, ähnlich wie beim Ergebnis medizinischer Tests. Somit fällt jeder klassifizierte Fall in eine der Kategorien „Richtig Positiv“, „Richtig Negativ“, „Falsch Positiv“ und „Falsch Negativ“. Auf die Einführung dieser Bezeichnungen sollte etwas Zeit verwendet werden, da sie neu und in CODAP wichtig sind. Auch die Darstellung der 4 Werte in der Konfusionsmatrix sollte an dieser Stelle ausführlich behandelt werden. Diese ist in Arbor unter dem Reiter Tabelle zu finden (siehe Video_Grundfunktionen_EB und Anleitung_EntscheidungsbaumPlugIn).

Unter Umständen kann der Lehrvortrag auch durch ein Selbststudium des Videos ersetzt werden.

Video_Grundfunktionen_EB

Arbeitsphase 20 min

Zweck der Phase: Die Schülerinnen und Schüler machen sich mit den Basisfunktionen von CODAP vertraut und erwerben erste Tool-Kompetenzen:

·       Fertigkeiten im Umgang mit CODAP

·       Interpretation der unterschiedlichen Darstellungen in CODAP (Entscheidungsbaum, Konfusionsmatrix)

 

Aktion: Die Schülerinnen und Schüler beginnen mit dem Arbeitsblatt 2 in der CODAP Umgebung zu arbeiten. Sie erhalten als Hilfestellung zum Nachlesen Anleitung_EntscheidungsbaumPlugIn (optional). Arbeitsblatt 2 ist dafür gedacht, um sich zunächst mit dem CODAP Tool vertraut zu machen. Bei der Besprechung kann später sichergestellt werden, dass alle Schülerinnen und Schüler die Darstellungen in CODAP verstehen, bevor dann freiere Aufgabenstellungen in CODAP folgen.

Anleitung_EntscheidungsbaumPlugIn

Arbeitsblatt_2_Entscheidungsregeln

Besprechung 15 min

Zweck der Phase: Sicherung und Vernetzung der Erkenntnisse der vorherigen Phasen. Insbesondere soll der Erstellungsprozess von einstufigen Entscheidungsbäumen wiederholt werden und in CODAP Umgebung angewandt werden. Es soll klar werden, dass das was vorher mit Datenkarten gemacht wurde hier nun in erleichterter Weise in CODAP gemacht wird.

Aktion: Die Ergebnisse werden verglichen. Dabei können nochmal die 4 Komponenten des Erstellens einstufiger Entscheidungsbäume wiederholt und ihre Umsetzung in CODAP verdeutlicht werden.

Entscheidungsbaum erstellen

1.      Datensplit wird durchgeführt durch Ziehen einer Prädiktorvariable in das Entscheidungsbaum Plug-In

2.      Mehrheitsentscheidung wird getroffen durch die Auswahl der passenden Werte in den Endknoten des Baums

3.      Evaluieren des Entscheidungsbaums geschieht durch Ablesen und Summieren der Fehlklassifikationen (FP und FN)

4.      Repräsentation eines Entscheidungsbaum in CODAP ist eins zu eins wie in der vorherigen Phase zu interpretieren (wird hier automatisiert von CODAP übernommen)

Anschließend mehrere einstufige Entscheidungsbäume vergleichen

Außerdem werden die Ergebnisse der SuS festgehalten. Da alle frei wählen konnten, welche drei Variablen sie betrachten fertigt man zusammen eine „unvollständige“ Liste von Variablen an und hält jeweils die Anzahl der Fehlklassifikationen fest. Dabei können die SuS jeweils die Begründung für ihre Auswahl nennen. So wird der beste einstufige Entscheidungsbaum unter den in Betracht gezogegen gekürt.

Phase Inhalt Material
Arbeitsphase 30 min

Mehrstufige Entscheidungsbäume in CODAP mit intuitiven Strategien

Zweck der Phase: Die Schülerinnen und Schüler sollen selbstständig mehrstufige Entscheidungsbäume explorieren und erste Strategien entwickeln, um mehrstufige Entscheidungsbäume datenbasiert zu erstellen.

Aktion: Die Schülerinnen und Schüler erstellen in Partnerarbeit ihren ersten eigenen Entscheidungsbaum. Die Schülerinnen und bearbeiten Arbeitsblatt 3 mit der Hauptaufgabenstellung:

·       Erstelle einen mehrstufigen Entscheidungsbaum, der Personen danach klassifiziert, ob sie Onlinespiele häufig oder selten spielen.

Und den zwei Unteraufgabenstellungen:

·       Auf welche Weise wählst du die Variablen für die Datensplits aus?

·       Wie legst du fest, wann du das Erstellen des Entscheidungsbaums abbrichst?

Als Hilfsmittel zum „nachschlagen“ können die Schülerinnen und Schüler dabei weiterhin das „Video_Grundfunktionen_EB“ nutzen. Die finalen Entscheidungsbäume werden als Screenshot festgehalten und der Lehrkraft geschickt. Es sollte vor der Bearbeitung angekündigt werde, dass im Anschluss die Bäume und die beiden Unteraufgabenstellungen präsentiert werden. Dabei kann das Arbeitsblatt als Notizzettel für den Vortrag verwendet werden.

Didaktischer Kommentar:

Die genaue Vorgehensweise beim Erstellen der Bäume wird hier nicht vorgegeben. Die Schülerinnen und Schüler können ihre eigenen Ansätze wählen und es ist auch gewünscht, wenn hier zunächst verschiedenste Ansätze vorkommen, um diese dann im Anschluss gegenüberzustellen. Erfahrungsgemäß argumentieren manche Lernende eher kontextbasiert, andere datenbasiert bei der Auswahl von Prädiktorvariablen. Manche erstellen sehr große Bäume, um 0 Fehlklassifikationen zu erzielen, andere erstellen eher kleine Bäume und brechen ab, sobald sie keine signifikante Verbesserung mehr sehen.

Arbeitsblatt_3_Entscheidungsbaum

Video_Grundfunktionen_EB

Besprechung 30 min

Zweck der Phase: Alle Paare von Schülerinnen und Schülern präsentieren ihren finalen Entscheidungsbaum und erläutern ihre Vorgehensweise beim Erstellen. So werden die Lösungen aller Paare gewürdigt und es wird ein Strauß an verschiedenen Ansätzen und erstellten Entscheidungsbäumen gesammelt.

Aktion:

Alle Paare von Schülerinnen und Schülern kommen nacheinander nach vorne und präsentieren ihren Entscheidungsbaum, der per Beamer für alle sichtbar gemacht wird. Dabei präsentieren sie ebenfalls ihren Ansatz beim Erstellungsprozess, indem sie die Antworten auf die beiden Fragen von Arbeitsblatt 3 aus der vorherigen Phase präsentieren.

·       Wie wurden Variablen ausgewählt?

·       Wie wurde entschieden den Prozess abzubrechen?

Didaktischer Kommentar:

Die Ansätze der Paare werden nicht direkt bewertet, bevor alle Paare ihren Baum präsentiert haben. An dieser Stelle des Unterrichts sind alle Ansätze wertvoll und ein diverses Angebot an Ansätzen befruchtet eine anschließende Diskussion. Die Lehrkraft kann sich während der Präsentationen schonmal Typen von Lösungen und Vorgehensweisen notieren die auftraten, um diese später in einer Plenumsdiskussion gegenüber zu stellen. Typen die in vielen Erprobungen auftraten sind im Dokument „Lehrkrafthinweis_Arbeitsblatt3“ dokumentiert.

Einige Schülerinnen und Schüler probieren nur zufällige Variablen aus, andere argumentieren inhaltlich kontextbasiert bei der Auswahl der Variablen und wieder andere erstellen und verwenden datenbasiert formale Kriterien. Manche beenden den Erstellungsprozess relativ schnell, wenn sie keine Verbesserung mehr sehen, andere versuchen den Baum so lange zu erweitern bis kein Fall im Trainingsdatensatz mehr falsch klassifiziert wird (Abbruchkriterium: Null Fehler). Daraus entstehen manchmal sehr kleine Bäume und beim Null Fehler Ziel eher vergleichsweise große Bäume. All diese Ansätze sind zu diesem Zeitpunkt und für diese Aufgabenstellung legitim und werden in der folgenden Reflexion diskutiert.

Lehrkrafthinweis_Arbeitsblatt3

Reflexion 10 min

Zweck der Phase:

Typische Lösungen von Lernenden werden aufgegriffen, um darauf aufbauend Fragen und Lernanlässe für die folgenden Unterrichtsphasen entwickeln. Zur Leitung der Diskussion finden sich wichtige Hinweise im Dokument Lehrkrafthinwies_Arbeitsblatt3

Aktion:

Es werden in einer Plenumsdiskussion folgende Fragen aufgeworfen:

1.      Wie werden solche Entscheidungsbäume bei Onlineplattformen erstellt? (kontextbasiert vs. datenbasiert)

2.      Welche Entscheidungsbäume funktionieren für neue Personen besser, kleine Bäume oder große Bäume? (Abbruchkriterium: Null Fehler vs. andere)

Aus den Fragen können folgende Lernanlässe hergeleitet werden:

1.      Wir schauen uns in der Folge an wie Entscheidungsbäume ganz systematisch, algorithmisch und datenbasiert erstellt werden. (Phase 5)

2.      Wir schauen und danach an, ob große oder kleine Bäume besser für neue Fälle funktionieren, indem wir Testdaten verwenden. Es kann nochmal in Erinnerung gerufen werden, dass das eigentliche Ziel ja war, eine Menge neuer Fälle möglichst fehlerarm zu klassifizieren. (Phase 6)

Lehrkrafthinweis_Arbeitsblatt3

Phase Inhalt Material
Einführung 10 min

Einführung Fehlklassifikationsrate

Zweck der Phase: Nun wird die Fehlklassifikationsrate als Qualitätsmerkmal eines Entscheidungsbaums eingeführt. In den bisherigen Betrachtungen der vorherigen Phasen hat die Anzahl der Fehlklassifikationen ausgereicht, da diese beiden Maße im bisherigen Kontext immer die gleichen Ergebnisse geliefert hätten. Die Fehlklassifikationsrate ist ja lediglich die Anzahl der Fehlklassifikationen geteilt durch die Anzahl aller Fälle im Datensatz.

Die Fehlklassifikationsrate ist für die folgenden beiden Unterrichtsphasen (Phase 5 & Phase 6) allerdings aus folgenden Gründen wichtig (Ausblick für Lehrkraft):

  • Phase 5: Es wird mit dem „Daten ausgeben“ Feature gearbeitet, um Datensplits bzw. Prädiktorvariablen zu vergleichen. Da dabei die Fehlklassifikationsrate angezeigt wird, ist das Interpretieren der Fehlklassifikationsrate nötig.
  • Phase 6: Der Entscheidungsbaum wird mit einem Testdatensatz getestet. Der Testdatensatz hat allerdings eine andere Anzahl von Fällen als der Trainingsdatensatz. Um die Funktionsfähigkeit des Entscheidungsbaums mit Trainings- und Testdaten adäquat zu vergleichen benötigt man dafür also zwingend die Fehlklassifikationsrate.

Aktion: Die Fehlklassifikationsrate wird in einer Kombination aus Lehrvortrag und Plenumsdiskussion gemeinsam eingeführt. Dafür werden Folien 8 – 10 aus der PPT-Präsentation genutzt.

Einsatz der PPT-Präsentation Folien_Phase5

Folie 10

Es wird die Frage aufgeworfen, ob die bisherige Vorgehensweise Entscheidungsbäume zu evaluieren (Anzahl der Fehlklassifikationen) optimal ist, oder ob man besser ein neues Maß finden sollten.

Es kann problematisiert werden, dass es schwierig ist mit der Anzahl der Fehlklassifikationen die Güte eines Entscheidungsbaums an jemanden zu kommunizieren, der im Prozess der Erstellung nicht eingebunden war.

Die Aussage „Mein Entscheidungsbaum macht 4 Fehler“ gibt für eine Person die sonst nichts über den genutzten Datensatz weiß keine Information darüber wie gut der Baum ist, da man noch wissen muss wie viel Objekte getestet wurden. Daher ist es sinnvoll die Fehlklassifikationsrate zu betrachten, die genau das mit einbezieht. Die Aussage „Der Entscheidungsbaum klassifiziert 10% falsch“ ist sofort für jeden nachvollziehbar und die Rate kann genau so zum Vergleichen von Entscheidungsbäumen genutzt werden wie vorher die Anzahl.

Folien 11 – 12

Die Fehlklassifikationsrate wird für zwei Beispiele gemeinsam berechnet.

Folien_Phase5

Einführung 10 min

 Das „Daten ausgeben-Feature” einführen

Zweck der Phase:

Das „Daten ausgeben-Feature” wird eingeführt und erklärt, da es in den nächsten Unterrichtsphasen benötigt wird, um einen Entscheidungsbaum systematisch zu erstellen. Es ermöglicht das einfache und übersichtliche vergleichen verschiedener Datensplits.

Aktion:

Die Lehrkraft präsentiert in einem Lehrvortrag wie das „Daten ausgeben“ Feature funktioniert (siehe „video_maschinespielen.mp4“ 2:00 – 5:00). Dies passiert am besten Live durch die Lehrkraft, um direkt auf Fragen eingehen zu können. Es kann aber auch durch Selbststudium des Videos durchgeführt werden. Es sollte insbesondere darauf hingewiesen werden, dass man die gerade eingeführte Fehlklassifikationsrate eines Entscheidungsbaums ganz einfach in der Spalte FKR ablesen kann, nach dem man „Daten ausgeben“ genutzt hat. Es sollten, genau wie im Video, nur einige wenige Beispiele gezeigt werden, da der gesamte Prozess in der nächsten Phase durch die Schülerinnen und Schüler selbst durchgeführt wird.

video_maschinespielen.mp4

Arbeitphase 15 min

Den einstufigen Entscheidungsbaum mit der niedrigsten FKR erstellen Zweck der Phase: Die Schülerinnen und Schüler machen sich mit dem „Daten ausgeben“ Feature vertraut, indem sie es benutzen. Darüber hinaus lernen sie bei der Auswahl von Variablen ausschließlich datenbasiert zu argumentieren.

Aktion:

Die Schülerinnen und Schüler bearbeiten in Partnerarbeit Arbeitsblatt_4 und nutzen dafür das „Daten ausgeben“ Feature. Die Schülerinnen und Schüler erhalten optional als Orientierung zum Nachschlagen das Dokument Anleitung_MaschineSpielen (nur Seite 1 und 2!) oder Zugang zu video_maschinespielen.mp4.

Arbeitsblatt_4

Anleitung_MaschineSpielen

video_maschinespielen.mp4

Arbeitphase 20 min

Gemeinsam „Maschine spielen“ – Ein Algorithmus für mehrstufige Entscheidungsbäume

Zweck der Phase: Die Erkenntnisse und Fertigkeiten der vorherigen Phase werden vertieft und gemeinsam wird ein maschineller Lernalgorithmus durchgeführt, um einen Entscheidungsbaum zu erstellen. So soll der Algorithmus nachvollzogen und verinnerlicht werden. Außerdem wird für diese Phase der Kontext aus den Daten „entfernt“, indem Variablennamen und Ausprägungen neutral bezeichnet sind. So sieht man die Daten, wie ein Computer sie „sieht“.

Aktion:

Es wird in dieser Phase in folgender CODAP Umgebung gearbeitet:  tinyurl.com/CODAPblind

Erste Aktivität: Den besten einstufigen Baum erstellen als Klassenverband:

1.      Die Lehrkraft projiziert die CODAP Umgebung via Beamer, sodass sie für alle sichtbar ist.

2.      Die Schülerinnen sind paarweise an einem Endgerät und haben ebenfalls ihre eigene Instanz der CODAP Umgebung geöffnet.

3.      Es werden alle Prädiktorvariablen auf die Paare aufgeteilt, sodass jede Variable genau einmal vergeben ist. Die Lehrkraft erhält auch mindestens eine Prädiktorvariable.

4.      Nun wird die Frage gestellt welche Prädiktorvariable genutzt werden sollte, um die erste Stufe des Entscheidungsbaums via Datensplit zu erzeugen.

  • a.      Die Lehrkraft prüft die ihr zugewiesene Prädiktorvariable, nutzt das „Daten ausgeben“ Feature und verkündet die Fehlklassifikationsrate, die dabei herauskommt.
  • b.      Nun sind die Schülerinnen und Schüler dran. Alle führen das gleiche für die jeweils zugewiesenen Prädiktorvariablen durch und nutzen dabei das „Daten ausgeben“ Feature.
  • c.       Anschließend können sich alle melden, die eine bessere Fehlklassifikationsrate erhalten haben als die Lehrkraft. So wird gemeinsam die beste Variable ermittelt.
  • d.      Die Lehrkraft wählt vorne die beste Variable aus und alle Paare tun dies ebenfalls an den Endgeräten.

Anschließend werden neue Aspekte eingeführt, die für das Erstellen mehrstufiger Entscheidungsbäume entscheidend sind:

5.      Abbruchkriterien: Es wird in beiden entstandenen Teildatensätzen geprüft, ob das Abbruchkriterium „Null Fehlklassifikationen“ für den Teildatensatz erreicht ist. Das ist der Fall, sobald alle Fälle im Teildatensatz die gleiche Ausprägung für die Zielvariable haben (im Baum: „n zu 0“ oder „0 zu n“)

6.      Rekursiver Ansatz des Algorithmus: Für die Teildatensätze in denen nicht abgebrochen wird, werden die Schritte a. – d. wiederholt. D.h. die Variablenauswahl wird in jeder Stufe gleich durchgeführt.

Der Algorithmus kann entweder durchgeführt werden bis null Fehlklassifikationen erreicht sind, oder aber nach einigen Schritten, nachdem das Prinzip deutlich geworden ist. Dies kann man von der Zeit und der Motivation der Schülerinnen und Schüler abhängig machen. Es sollten aber mindestens drei Stufen des Baums erstellt werden.

Didaktischer Kommentar:

Die Schülerinnen und Schüler arbeiten nun in der gleichen Umgebung wie zuvor, mit den gleichen Daten wie zuvor. Aus den Daten wurde lediglich der Kontext „entfernt“, indem die Bezeichnungen der Variablen und der Ausprägungen neutral gestaltet wurde. Somit sind alle formalen datenbasierten Argumentationen für die Auswahl von Variablen oder Abbruchkriterien weiterhin möglich, allerdings kontextbasierte Argumentation nicht. Dies dient dazu, dass Schülerinnen und Schüler die „Perspektive eines Computers“ einnehmen, für den alle Bezeichnungen lediglich Zeichenfolgen darstellen, die nicht mit einem Kontext verknüpft werden. Wenn ein Computer einen Entscheidungsbaum erstellen soll, muss dies auf Grundlage formaler, datenbasierter Kriterien geschehen und der Kontext ist komplett irrelevant für den Erstellungsprozess. Somit müssen alle sich allein auf die datenbasierte Argumentation stützen und auch Lernende, die bisher kontextbasierte Argumentation (menschliches Vorgehen) bevorzugt haben, erleben hier den formalen Algorithmus aus Sicht eines Computers.

Sicherung 1 0 min

Sicherung des Algorithmus

Zweck der Phase: Das Verständnis für den Algorithmus wird gesichert und vertieft durch eine weitere Repräsentationsform des Algorithmus als Flussdiagramm.

Aktion: Alle Schritte, die vorher gemeinsam im Klassenverband durchgeführt wurden, werden nun im Unterrichtsgespräch noch einmal rekapituliert. Die einzelnen Schritte werden mit dem Foliensatz Folien_Phase5 (Folien 14-26) durchgegangen und jeweils von Schülerinnen und Schülern erläutert.

Abschließend werden folgende Aspekte an der Tafel festgehalten:

  • Es ist möglich, datenbasiert einen Entscheidungsbaum zu erstellen, der Merkmale zu persönlichen Interessen mit geringer Fehlklassifikationsrate vorhersagen kann.
  • Ein Computer kann das automatisch machen, mit Hilfe eines Algorithmus. Dieser Algorithmus nutzt absolut kein Kontextwissen und handelt komplett datenbasiert nach formalen Kriterien.
  • Ein Nachteil des maschinellen Lernens ist, dass eine inhaltlich kontextbasierte Prüfung der Entscheidungskriterien nicht automatisiert stattfindet. Eine Klassifikator, der über Jobbewerber entscheidet könnte beispielsweise das Geschlecht als Prädiktor nutzen. Dies wäre gesellschaftlich nicht akzeptabel, wird aber nicht automatisch geprüft.
  • Vorteile sind, dass diese Methode hoch effizient ist und keine (teure) menschliche Arbeitskraft notwendig ist. Es können riesige Datenmengen ausgewertet werden, die menschliche Kapazitäten übersteigen. Es könnten Zusammenhänge gefunden werden, die ein Mensch vielleicht nicht vermuten würde. Die Ergebnisse in der Anwendung sind oft gut und nützlich.

Folien_Phase5 11-23

Phase Inhalt Material
Einführung 10 min

Einführung von Testdaten in CODAP

Zweck der Phase: Schülerinnen und Schüler Lernen den Einsatz von Testdaten in CODAP kennen. Darüber hinaus wird thematisiert, warum überhaupt Testdaten genutzt werden müssen. Dabei wird auf die Motivation vom Beginn der Unterrichtsreihe verwiesen, wo es ja darum ging neue Fälle korrekt zu klassifizieren und nicht nur vorliegende Daten.

Aktion:  

Zunächst wird anhand der PPT-Präsentation Folien_Phase6 motiviert warum es notwendig ist Testdaten zu verwenden, um Entscheidungsbäume zu testen.

Folie 3-4

Man kann die Frage stellen, welche Bäume aus der vorherigen Phase besser sind, große Bäume die null Fehlklassifikationen bzgl. der Trainingsdaten haben, oder kleine Bäume die nicht null aber relativ wenig Fehlklassifikationen haben.

Ein Argument für die großen Bäume kann sein, dass die Klassifizierung der Trainingsdaten besser ist.

Ein Argument für die kleinen Bäume kann sein, dass nicht so viele Variablen eingebunden sind, bei denen fragwürdig ist, ob sie für neue Daten wirklich gute vorhersagen ermöglichen.

Folie 5

Um herauszufinden wie gut die Bäume in der Praxis wirklich funktionieren, muss man Testdaten verwenden (und Monitoring betreiben bei der realen Anwendung auf neue Fälle). Wichtig festzuhalten ist:

  • Testdaten sind Daten gleicher Art wie die Trainingsdaten, die nicht am Trainingsprozess beteiligt waren.
  • Das testen mit Testdaten gehört fest zum Paradigma des maschinellen Lernens.

Die Lehrkraft präsentiert in einem Lehrvortrag wie es technisch funktioniert Testdaten in CODAP zu verwenden vergleichbar zum  „video_training_test_daten_auswaehlen.mp4“.  In der nächsten Phase machen die Schülerinnen und Schüler das dann selbst. „video_training_test_daten_auswaehlen.mp4“. Dies kann unter folgendem Link getan werden: https://tinyurl.com/TrainingTestDaten

Folien_Phase6

video_training_test_
daten_auswaehlen.mp4

Arbeitsphase 15 min

Zweck der Phase: Schülerinnen und Schüler setzen Testdaten in CODAP selbst ein und stellen kleine und große Bäume gegenüber.

Aktion: Die Schülerinnen und Schüler bearbeiten in Partnerarbeit Arbeitsblatt 5. Sie wenden Testdaten auf verschiedene Entscheidungsbäume an und vergleichen die Performance der Entscheidungsbäume für beides, Trainings- und Testdaten. Sie notieren dafür auf dem Arbeitsblatt die entsprechenden Werte. Sie erhalten zum Nachschlagen Zugang zu „video_training_test_daten_auswaehlen.mp4“.

Die Trainingsdaten sind weiterhin die 53 Fälle aus der vorherigen Phase. Die beiden Entscheidungsbäume auf Arbeitsblatt_5 sind authentische Ergebnisse von Lernenden aus früheren Durchführungen. Wahlweise kann jedes Paar zusätzlich ihren eigenen Baum aus der vorherigen Phase nachbauen und auch testen.

Arbeitsblatt_5

Besprechung 20 min

Zweck der Phase: Die wichtige Erkenntnis dieser Phase ist, dass die Anpassung eines Entscheidungsbaums an Daten nicht automatisch alles löst. Ein ganz wichtiger Schritt ist, dass dieser Entscheidungsbaum auch für neue Daten funktioniert. Dies ist nicht selbstverständlich und muss getestet werden.

Aktion: Die Ergebnisse von Arbeitsblatt 5 werden im Plenum verglichen. Als Ergebnis wird festgehalten:

Der kleine Entscheidungsbaum für die Testdaten besser funktioniert als der der große Entscheidungsbaum, obwohl es für die Trainingsdaten andersherum ist.

Daraus lässt sich schließen, dass man in der Praxis lieber den kleineren Entscheidungsbaum verwenden sollte.  Daraus werden folgende Fragen motiviert, die in der nächsten Phase beantwortet werden:

1.      Warum funktioniert der große Baum für Testdaten schlechter, obwohl er für die Trainingsdaten besser funktioniert?

2.      Wie müssen wir den bisher kennengelernten Algorithmus verändern oder ergänzen, damit wir möglichst gute Bäume für Testdaten erhalten?

Es werden im Unterrichtsgespräch Vermutungen gesammelt

Authentische Äußerungen von Lernenden:

Zu 1.:

·       Die „guten“ Prädiktorvariablen sind nach den ersten Schritten weg

·       Beim großen Baum gibt es so viele „1 zu 0“ Knoten

·       Am Ende beim großen Baum probiert man nur noch irgendwelche zufälligen Variablen aus

Zu 2.:

·       Weitere Abbruchkriterien können ergänzt werden

·       Nicht sinnvolle Entscheidungsregeln können wir wieder wegnehmen

Einführung 10 min

Einführung Optimierung

Zweck der Phase: Es wird erläutert warum große Bäume häufig schlechter für Testdaten funktionieren als kleinere Bäume.  Anschließend wird zunächst das Problem skizziert, dass wir nicht genau wissen, wie groß genau ein Baum sein sollte. Dann wird ein Ansatz zur Lösung des Problems vorgestellt: Ein Algorithmus zum retrospektiven Abschneiden von Entscheidungsregeln, die für Testdaten die Anzahl der Fehlklassifikationen erhöht.

Aktion: Die Lehrkraft erklärt in einem Lehrvortrag, warum große Bäume häufig schlechter für Testdaten funktionieren als für Trainingsdaten. (siehe „video_optimierung.mp4“).

Beim Erstellen eines Entscheidungsbaums sind zwei Dinge wichtig:

1.      Der Entscheidungsbaum sollte wenig Fehlklassifikationen bzgl. der Trainingsdaten liefern

2.      In den finalen Teildatensätzen an den Endknoten des Entscheidungsbaums sollten möglichst viele Fälle übrig sein, weil wir darauf per Mehrheitsentscheidung unsere Vorhersage stützen und diese Mehrheitsentscheidungen im Mittel besser generalisierbar sind, wenn sie auf mehr Fällen basieren

Dies sind zwei sich wiederstrebende Anforderungen, die ausbalanciert werden müssen. Beim Verfolgen von Ziel 1 wird häufig Ziel 2 vernachlässigt, sodass sehr große Bäume entstehen, die 0 Fehlklassifikationen liefern, aber häufig nur noch einen Fall pro Endknoten haben.

Anschließend wird erklärt, dass wir nicht ganz genau wissen wie groß ein Baum sein sollte. Die Lehrkraft demonstriert (siehe:  video_optimierung.mp4) einen Ansatz bei dem man das vorher gar nicht wissen muss: Der Entscheidungsbaums wird erst anhand von Trainingsdaten erstellt und dann mit Testdaten optimiert, indem einige Datensplits am unteren Ende des Entscheidungsbaums zurückgenommen werden. Es wird erst ein zu großer Baum mit Trainingsdaten erstellt, der dann wieder mit Hilfe von Testdaten beschnitten wird.

Ein (zu großer) Entscheidungsbaum wird auf die Testdaten angewandt und anschließend werden alle Blattknoten abgeschnitten, bei denen die Mehrheitsentscheidung nach Anwendung auf die Testdaten nun nicht mehr stimmt. Dadurch wird mit einer klaren Regel ein finaler Baum erstellt.

video_optimierung.mp4

Arbeitsphase 15 min

Zweck der Phase: Die Schülerinnen und Schüler wenden die Optimierungsstrategie selbst an und verinnerlichen diese dadurch.

Aktion: Die Schülerinnen und Schüler arbeiten in Partnerarbeit mit Arbeitsblatt 6 und optimieren den großen Entscheidungsbaum aus der vorherigen Phase mit Hilfe von Testdaten. Das Video „video_optimierung.mp4“ können die Schülerinnen und Schüler dabei als Orientierung verwenden. Ein Screenshot des optimierten Entscheidungsbaums wird anschließend an die Lehrkraft geschickt.

Arbeitsblatt_6_Optimierung

video_optimierung.mp4

Besprechung 20 min

Besprechung Arbeitsblatt

Zweck der Phase: Sicherung und Vertiefung des Verständnisses für die Vorgehensweise beim optimieren

Aktion: Zwei oder drei Paare präsentieren ihren optimierten Baum. An dieser Stelle gibt es eine eindeutig korrekte Lösung, anders als z.B. in Phase 4, in der die Schülerinnen und Schüler eigene Strategien verfolgen konnten.

Im Idealfall stellen, die Paare den exakt gleichen Baum vor. Andernfalls wird am Ende noch einmal die korrekte Lösung präsentiert und gemeinsam erarbeitet, wie man zu dieser Lösung kommt.

Didaktischer Kommentar: Wichtig hierbei ist herauszustellen, dass es eine eindeutig bestimmte korrekte Lösung gibt, weil nach einem Regelwerk gearbeitet wird, dass auch automatisiert werden kann. Computer können dieses Regelwerk algorithmisch umsetzen, da nur datenbasierte Entscheidungen benutzt wird. Eigentlich bräuchte man nun noch einen dritten Datensatz, um den finalen Baum erneut zu testen, da man mit dem zweiten Datensatz nun auch in die Konstruktion des Baums eingegriffen hat. Das kann man noch umsetzen, oder hier auch weglassen, um es nicht zu sehr in die Länge zu ziehen.

Phase Inhalt Material
Einstieg & Wdh. 10 min

Zweck der Phase:  Die Schülerinnen und Schüler aktivieren ihr Vorwissen zu Konfusionsmatrizen und zur Fehlklassifikationsrate. Sie üben an zwei vorgegebenen Konfusionsmatrizen (Klassifikator 1 und Klassifikator 2) das Berechnen der Fehlklassifikationsrate und formulieren eine erste naive Bewertung der Klassifikatoren allein auf dieser Basis. Diese Phase schafft die Grundlage, um im weiteren Verlauf die Grenzen dieser eindimensionalen Bewertung sichtbar zu machen.

Aktion:  

Die Lehrkraft zeigt zwei Konfusionsmatrizen per Beamer (Folie 1).

Im Unterrichtsgespräch wird zunächst die Definition der Fehlklassifikationsrate wiederholt:

Fehlklassifikationsrate = (Anzahl aller falsch klassifizierten Fälle) / (Anzahl aller Fälle).

Anschließend berechnet die Klasse gemeinsam an der Tafel:

Anzahl der Fehler von Klassifikator 1 (Summe der Felder mit falschen Klassifikationen) und daraus die Fehlklassifikationsrate. Anzahl der Fehler von  Klassifikator 2 und die dazugehörige Fehlklassifikationsrate.

(Klassifikator 1: FKR = 2 %,  Klassifikator  2: FKR = 9,05 %).

Impulsfrage:

„Wenn wir nur auf die Fehlklassifikationsrate schauen: Welcher Klassifikator wirkt besser?“

Erwartetes Ergebnis der SuS:

→ Klassifikator 1 ist besser, da er weniger Fehler insgesamt macht.

Die Lehrkraft nimmt diese erste Einschätzung auf, bewertet sie aber noch nicht abschließend und kündigt an, dass nun genauer gefragt wird, welche Art von Fehlern in welchem Kontext schwerer wiegt.

Folien_Phase7

Input 5 min

Mini-Input: Fehlerarten „Falsch A“ und „Falsch B“

Zweck der Phase:  Es werden zwei Fehlerarten eingeführt, die aus der Konfusionsmatrix abgelesen werden können. Dabei wird bewusst auf Fachbegriffe wie „False Positive/False Negative“ verzichtet und statt dessen eine einfache, aber präzise Sprache verwendet, die an die Klassenbezeichnungen A und B anknüpft.

Aktion:  Die Lehrkraft markiert in einer der Konfusionsmatrizen die beiden Kästchen mit falschen Klassifikationen und führt die Begriffe ein:

  • Wenn das Modell fälschlicherweise A vorhersagt, aber die richtige Klasse wäre B, dann nennen wir das einen ‚Falsch-A-Fehler‘.
  • Wenn das Modell fälschlicherweise B vorhersagt, obwohl es A sein müsste, ist das ein ‚Falsch-B-Fehler‘.

 

Beide Fehlerarten können unterschiedlich schlimm sein – je nachdem, worum es geht.

Wichtig ist hier, dass die SuS verstehen:

  • Es gibt nicht nur „Fehler insgesamt“, sondern verschiedene Arten von Fehlern, die unterschiedlich relevant sein können.
  • Welche Fehlerart kritischer ist, hängt vom Anwendungskontext ab.

 

Diese Einsicht bereitet die folgende Gruppenarbeit vor.

Arbeitsphase 20 min

Zweck der Phase:  Die Schülerinnen und Schüler erwerben ein Verständnis dafür, dass ein und dieselben Konfusionsmatrizen (also dieselben Zahlen) in unterschiedlichen Kontexten zu unterschiedlichen Bewertungen führen können. Dabei argumentieren sie explizit mit den Fehlerarten „Falsch A“ und „Falsch B“ und nicht mit abstrakten Kennzahlen wie Sensitivität oder Präzision.

Aktion:  Die Klasse wird in zwei (oder mehrere) Gruppen aufgeteilt. Je nach Klassengröße bietet es sich an, je zwei bis drei Gruppen demselben Kontext zuzuordnen, damit später mehrere Gruppen pro Kontext Ergebnisse präsentieren können.

Jede Gruppe erhält:

  • die gleichen Konfusionsmatrizen von Classifier 1 und 2 (z.B. als Ausschnitt auf Arbeitsblatt_Phase7_Kontexte),
  • aber unterschiedliche Kontextbeschreibungen.

 

Kontext A: Video-Empfehlungssystem (z.B. Streaming/Instagram-Reels)

Klasse A = „nicht interessiert“

Klasse B = „interessiert“

Interpretation der Fehlerarten:

  • Falsch-B-Fehler: Modell sagt „interessiert“ (B), obwohl die Person in Wirklichkeit nicht interessiert ist (A) → die Person erhält unpassende/nervige Vorschläge.
  • Falsch-A-Fehler: Modell sagt „nicht interessiert“ (A), obwohl die Person interessiert wäre (B) → die Person verpasst ein Video, das ihr gefallen hätte.

 

Leitgedanke: Viele unpassende Empfehlungen (Falsch-B-Fehler) sind für Nutzer:innen besonders störend; verpasste interessante Videos (Falsch-A-Fehler) sind meist weniger schlimm.

Kontext B: Kinderschutz-Filter (z.B. „sicher“ vs. „nicht sicher“)

Klasse A = „sicher“

Klasse B = „nicht sicher“

Interpretation der Fehlerarten:

  • Falsch-A-Fehler: Modell sagt „sicher“ (A), obwohl das Video in Wirklichkeit „nicht sicher“ (B) ist → gefährliche Inhalte werden als harmlos eingestuft.
  • Falsch-B-Fehler: Modell sagt „nicht sicher“ (B), obwohl das Video in Wirklichkeit sicher (A) ist → harmlose Inhalte werden unnötig blockiert.

 

Leitgedanke: Hier sind Falsch-A-Fehler besonders kritisch, da gefährliche Inhalte Kinder erreichen könnten. Falsch-B-Fehler sind eher ärgerlich, aber nicht gefährlich.

Arbeitsauftrag auf dem Arbeitsblatt (für beide Kontexte gleich formuliert):

1.      Tragt für beide Klassifikatoren ein, wie viele Falsch-A-Fehler und wie viele Falsch-B-Fehler sie machen (aus der Konfusionsmatrix ablesen).

2.      Überlegt in eurem Kontext:

  • Was bedeutet ein Falsch-A-Fehler?
  • Was bedeutet ein Falsch-B-Fehler?
  • Welche Fehlerart ist in eurem Kontext schlimmer? Warum?

 

3.      Entscheidet euch als Gruppe für einen der beiden Klassifikatoren.

4.      Begründet eure Entscheidung schriftlich mit mindestens zwei Sätzen, in denen ausdrücklich auf die Fehlerarten und den Kontext Bezug genommen wird.

5.      Bereitet eine kurze mündliche Präsentation (ca. 1 Minute) eurer Empfehlung vor.

Die Lehrkraft geht während der Gruppenarbeit herum, unterstützt bei der Interpretation der Fehlerarten im jeweiligen Kontext und fordert die Gruppen dazu auf, ausdrücklich zwischen Falsch-A- und Falsch-B-Fehlern zu unterscheiden.

Präsentation & Sicherung 10 min

Zweck der Phase:  Die Schülerinnen und Schüler erkennen, dass mit denselben Konfusionsmatrizen (also denselben Zahlen) unterschiedliche Klassifikatoren bevorzugt werden können, je nachdem, welche Fehlerart in einem Kontext kritischer ist. Diese Einsicht wird explizit gemacht und mit den allgemeinen Lernzielen zur Bewertung von Klassifikatoren verknüpft.

Aktion:  

1.     Aus jedem Kontext (A und B) präsentiert mindestens eine Gruppe kurz:

  • Welchen Klassifikator sie gewählt hat.
  • Welche Fehlerart sie für besonders kritisch hält.
  • Wie sie dies mit dem Kontext begründet.

 

Typische Ergebnisse:

Kontext A (Video-Empfehlungssystem):
→ Bevorzugt wird häufig der Klassifikator, der weniger Falsch-B-Fehler macht (also weniger unpassende Empfehlungen ausgibt), selbst wenn seine Fehlklassifikationsrate nicht die allerkleinste wäre.

Kontext B (Kinderschutz-Filter):
→ Bevorzugt wird häufig der Klassifikator mit möglichst wenigen Falsch-A-Fehlern (gefährliche Inhalte als sicher), auch wenn er insgesamt mehr Fehler macht oder mehr Falsch-B-Fehler verursacht.

2.      Die Lehrkraft moderiert eine kurze Vergleichsdiskussion:

Leitfragen:

  • „Ist euch aufgefallen, dass alle mit denselben Zahlen gearbeitet haben, aber zu unterschiedlichen Empfehlungen gekommen sind?“
  • „Woran liegt das?“
  • „Warum reicht es nicht, nur die Fehlklassifikationsrate anzuschauen?“

 

3.      Gemeinsame Sicherung an der Tafel
Die Lehrkraft sammelt und formuliert zentrale Erkenntnisse, z.B.:

  • Ein Klassifikator ist nicht absolut gut oder schlecht, sondern nur im Verhältnis zu einem Ziel und einem Kontext.
  • Unterschiedliche Kontexte → unterschiedliche Prioritäten bei Fehlerarten (Falsch A vs. Falsch B).
  • Zahlen allein (z.B. Fehlklassifikationsrate) reichen nicht aus, um zu entscheiden, ob ein Klassifikator „gut genug“ ist.
  • Die Bewertung von Klassifikatoren beinhaltet immer auch eine Wertentscheidung: Welche Fehler sind akzeptabel? Welche nicht?

 

Abschließend kann die Lehrkraft die Verbindung zu den vorherigen Phasen herstellen:

Bisher lag der Fokus eher auf: „Wie erstellen und optimieren wir einen Entscheidungsbaum?“

In dieser Phase wird ergänzt: „Wie bewerten wir Klassifikatoren verantwortungsvoll im Anwendungskontext?“

Damit wird die Unterrichtsreihe inhaltlich gerahmt:
Maschinelles Lernen liefert Werkzeuge, deren Einsatz und Bewertung aber immer kontext- und wertabhängig ist.

Phase Inhalt Material
8

Rückbezug zum Einstiegskontext personalisierte Werbung

Zweck der Phase:   Der Anfang der Unterrichtsreihe wird wieder aufgenommen: personalisierte Werbung und Empfehlungen auf Instagram & Co.

Aktion:  

Die Lehrkraft zeigt erneut ein Beispiel aus Phase 1 (z. B. eine Instagram-Werbung oder eine vorgeschlagene Reel-Liste).

Impulsfragen:

  • „Warum bekommt man diese Empfehlung?“
  • „Welche Daten über euer Verhalten könnten dafür genutzt worden sein?“
  • „Wie hängt das mit unseren Modellen aus den letzten Stunden zusammen?“

Ziel:
Die SuS erkennen den direkten Bezug zwischen ihren im Unterricht konstruierten Entscheidungsbäumen/Klassifikatoren und den realen Systemen, die sie täglich nutzen.

8

Still-Reflexion & Austausch: Wie beeinflusst ML mein Onlineverhalten?

Aktion:   Die SuS schreiben zunächst 3–5 Minuten lang auf, welche Empfehlungssysteme sie im Alltag nutzen (TikTok, YouTube Shorts, Instagram Explore, Spotify, Pinterest …) und woran die Plattform erkennen könnte, dass bestimmte Inhalte „passen“.

Fragen:

  • „Woran könnte die Plattform mein Interesse erkennen?“
  • „Gab es Inhalte, die besonders gut ‚gepasst‘ haben?“
  • „Wo lag der Algorithmus völlig daneben?“

Partnerarbeit (3 min):
Austausch über Beobachtungen. Die Lehrkraft sammelt exemplarisch 2–3 Fälle im Plenum.

8

Erarbeitung: Selbstwirksamkeit – Wir bestimmen die Prädiktoren

Zweck der Phase:

Inhaltliche Rückbindung der Begriffe Zielvariable, Prädiktorvariable und Verhalten generiert Daten.

Aktion:  Die Lehrkraft überträgt Erkenntnisse aus den Entscheidungsbäumen auf den Alltag:

„Unser Verhalten ist die Prädiktorvariable.
Wir erzeugen selbst die Daten, mit denen wir später klassifiziert werden.“

Gruppenarbeit (4er-Gruppen):
Arbeitsauftrag:

  1. Listet typische Verhaltensweisen auf, die Plattformen tracken (z. B. Like-Verhalten, Scrollstopps, Suchbegriffe, Profilaufrufe).
  2. Markiert: Welche davon kann ich bewusst steuern?
  3. Überlegt: Wie beeinflusst das meine zukünftigen Empfehlungen?

Zentrale Erkenntnis:
Nutzer:innen sind nicht passiv – sie gestalten aktiv, welche Prädiktoren das ML-Modell „sieht“ → Selbstwirksamkeit.

Beispiele, die SuS typischerweise nennen:

  • bewusster liken
  • bewusst Inhalte offenlassen/wegwischen
  • Wiedergabezeit steuern
  • gezielt nach neuen Themen suchen
  • Accounts aus neuen Bereichen folgen
  • gelegentlich Empfehlungen zurücksetzen
8

Zweck der Phase:

Die Schülerinnen und Schüler reflektieren das Gelernte aus den Phasen 1–7 und setzen es in Beziehung zu ihrem eigenen Alltag mit Onlineplattformen. Dabei wird sichtbar, dass maschinelles Lernen nicht nur ein technisches Verfahren ist, sondern ein zentraler Bestandteil ihrer Mediennutzung. Die Phase schließt den Bogen vom Ausgangskontext (personalisierte Werbung) über datenbasierte Entscheidungsprozesse bis hin zur Frage, wie Nutzer:innen selbst Einfluss auf Modellvorhersagen nehmen können.

Diese Phase stärkt die Bewertungskompetenz, die kritische Reflexionsfähigkeit sowie das Bewusstsein für Selbstwirksamkeit im digitalen Raum.

Aktion:  Die Lehrkraft leitet eine geführte Plenumsreflexion, die sich an vier Leitfragen orientiert. Die Antworten werden gemeinsam gesammelt und sichtbar am Smartboard / an der Tafel strukturiert. Ziel ist es, die zentralen Konzepte der gesamten Unterrichtsreihe zusammenzuführen und auf die Lebenswelt der Lernenden zu beziehen.

Leitfrage 1: Was haben wir über maschinelles Lernen auf Onlineplattformen gelernt?

Die Ergebnisse der vorherigen Phasen werden inhaltlich gebündelt:

·       Phase 1: Plattformen sammeln vielfältige Daten über Profile (Nutzungsverhalten, Interaktionsmuster, Gerätedaten) und nutzen diese Daten, um Interessen vorherzusagen.

·       Phase 2–4: Diese Vorhersagen basieren auf datenbasierten Entscheidungsregeln (z. B. Entscheidungsbäumen), die Merkmale schrittweise zu Regeln verknüpfen.

·       Phase 5: Computer erstellen diese Entscheidungsbäume algorithmisch, rein datenbasiert und ohne Kontextwissen.

·       Phase 6: Entscheidungsbäume müssen getestet werden, weil sie sonst zu stark an Trainingsdaten angepasst sein können (Überanpassung).

·       Phase 7: Welcher Klassifikator „gut“ ist, hängt immer vom Kontext und der Bedeutung verschiedener Fehlerarten ab. Gleiche Zahlen können zu unterschiedlichen Entscheidungen führen.

Die Lehrkraft sichert die Erkenntnis:

Maschinelles Lernen trifft keine wertfreien Entscheidungen – es bildet Muster in Daten ab und muss kontextsensitiv bewertet werden.

Leitfrage 2: Wie beeinflusst maschinelles Lernen unseren digitalen Alltag?

Die Schülerinnen und Schüler erarbeiten gemeinsam:

·       Empfehlungssysteme passen sich permanent an unser Verhalten an.

·       Inhalte werden ausgewählt, um Engagement zu maximieren (Verweildauer, Likes etc.).

·       Entscheidungen von Klassifikatoren können bestimmen, was wir sehen – und was wir nicht sehen.

·       Dadurch entstehen individuelle Nutzungspfade, die unseren Informationsraum prägen.

Erkenntnis:

ML wirkt im Alltag sichtbar: Es kann Inhalte verstärken, neue Interessen formen oder bestimmte Perspektiven unsichtbar machen.

Leitfrage 3: Welche Rolle spielt unser eigenes Verhalten? (Selbstwirksamkeit)

Die Lehrkraft stellt den Bezug zu Prädiktorvariablen her:

·       Was wir liken, speichern oder anschauen → erzeugt Datenpunkte.

·       Wie lange wir bei einem Beitrag bleiben → wird zu einem starken Prädiktor.

·       Was wir suchen oder wem wir folgen → bestimmt, welche Muster das Modell erkennen kann.

Die Phase macht deutlich:

Unser Verhalten erzeugt die Prädiktorvariablen – wir beeinflussen die Modellvorhersagen aktiv mit.

Die Lernenden formulieren Möglichkeiten bewussten Handelns:

·       bewusst diversere Inhalte konsumieren

·       Empfehlungen hinterfragen: „Warum sehe ich das gerade?“

·       eigene Nutzungsmuster reflektieren

·       …

Leitfrage 4: Was bedeutet das für einen bewussten und reflektierten Umgang mit Onlineplattformen?

Abschließend wird ein reflektiertes Fazit gesammelt:

·       Empfehlungen nicht ungefragt übernehmen, sondern hinterfragen

·       digitale Räume aktiv gestalten statt sich steuern zu lassen

·       erkennen, dass Algorithmen Stärken und Grenzen haben

·       verstehen, dass Kontextwissen und Werteentscheidungen immer durch Menschen getroffen werden müssen

·       bewusst mit Daten umgehen, da sie Grundlage zukünftiger Klassifikationen sind

Gemeinsamer Schlusssatz (wird an der Tafel festgehalten):

„Maschinelles Lernen entscheidet nicht über uns –

es entscheidet über die Daten, die wir erzeugen.

Wenn wir unser Verhalten bewusst gestalten, gestalten wir auch die Vorhersagen über uns.“

 

Entscheidungsbäume mit CODAP erstellen

CODAP (Common Online Data Analysis Platform) ist eine kostenlose, browserbasierte Umgebung zur interaktiven Datenanalyse, die sich besonders für den schulischen Einsatz eignet. Sie ermöglicht es, Datensätze intuitiv zu erkunden, grafisch darzustellen und mit Analysewerkzeugen zu bearbeiten – ohne dass Programmierkenntnisse erforderlich sind.

Für das Thema Entscheidungsbäume steht in CODAP das Plug-In Arbor zur Verfügung. Arbor erlaubt es, Klassifikationsbäume sowohl schnell und explorativ zu erstellen als auch systematisch – ähnlich wie ein Algorithmus – zu konstruieren. So können Lernende zunächst einfache, einstufige Bäume erzeugen, die Entscheidungsregeln aus den Daten ableiten, und diese anschließend um weitere Stufen erweitern.

Neben der visuellen Darstellung der Entscheidungsstruktur bietet Arbor wichtige Analysefunktionen:

  • Mehrheitsentscheidungen in Blattknoten setzen

  • Trefferübersichten und Konfusionsmatrizen anzeigen

  • Fehlklassifikationsraten berechnen

  • mit der Funktion „Daten ausgeben“ verschiedene Varianten dokumentieren und vergleichen

Damit unterstützt CODAP/Arbor sowohl das intuitive Erkunden als auch das formalisierte Vorgehen beim Erstellen von Entscheidungsbäumen. Lernende können erleben, wie sich Entscheidungen aus Daten ableiten lassen, und nachvollziehen, wie ein Computer bei der Auswahl optimaler Entscheidungsregeln Schritt für Schritt vorgeht.

Mit Daten zum Medienverhalten von Jugendlichen wird im Unterricht folgende Leitfrage verfolgt:

  • Wie kann man mit Hilfe der Daten ein Empfehlungssystem konstruieren, das das persönliche Interesse von Personen an Onlinespielen vorhersagt, um dann entsprechend Werbung für Onlinespiele zu empfehlen?

Ein solches Empfehlungssystem bezeichnet man als Klassifikator, da einzelne Objekte (hier Personen) basierend auf ihren Merkmalen einer Klasse („spielt häufig Onlinespiele“ oder „spielt selten Onlinespiele“) zugeordnet werden, d. h. sie werden klassifiziert. Man unterscheidet dabei zwischen Zielmerkmal, das vorhergesgt werden soll und Prädiktormerkmalen, die zum vorhersagen genutzt werden.

Ein solcher Klassifikator wird auf der Basis einer Menge von Objekten entwickelt, für die sowohl die Ausprägungen der Prädiktormerkmale als auch des Zielmerkmals bekannt sind. Das sind die sogenannten Trainingsdaten. Ziel ist es aber immer, dass die Empfehlung auch für neue Objekte funktioniert. Zunächst wird das System mit Testdaten getestet, die nicht am Trainingsprozess beteiligt waren, für die aber die Ausprägungen des Zielmerkmals bekannt sind. Man kann damit abschätzen, mit welcher Wahrscheinlichkeit das System neue Objekte mit unbekannter Ausprägung korrekt klassifiziert.

Basisfunktionen von CODAP und Arbor

In diesem Video wird gezeigt, wie mit Hilfe von CODAP ganz einfach datenbasierte Entscheidungsbäume per Drag & Drop erstellt werden können.

Mit folgendem Link gelangst du in die im Video genutzte CODAP Umgebung: https://tinyurl.com/CODAPEntscheidungsbaum

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

In diesem Video wird gezeigt, wie der in den vorherigen Items beschriebene Algorithmus in CODAP umgesetzt werden kann, sodass man gewissermaßen “Maschine spielt”.

Der Ansatz dabei ist, dass der Algorithmus durch Schülerinnen und Schüler semi-autmatisch durchgeführt wird, sodass sie die systematische Vorgehensweise handelnd verinnerlichen können.

Mit folgendem Link gelangst du in die im Video genutzte CODAP Umgebung: https://tinyurl.com/CODAPEntscheidungsbaum

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Materialien

Gesammelter Download aller Materialien

Hier können Sie alle Arbeitsblätter, Hilfszettel und Hinweisblätter als komprimierten Ordner herunterladen:

Weitere Informationen

Informationen über Maschinelles Lernen

Maschinelles Lernen ist ein weiter Bereich, der verschiedene Methoden und Lernalgorithmen für das automatische Lösen unterschiedlichsterer Aufgabentypen umfasst. Das verbindende Element zwischen allen Methoden die zum maschinelle Lernen gehören ist, dass sie auf Trainingsdaten beruhen. Wir konzentrieren uns auf die Unterart des überwachten Lernens, insbesondere auf Klassifikationsaufgaben, die mit Entscheidungsbäumen gelöst werden können.
Bei der Klassifikation geht es darum, Objekte oder Individuen einer Population mit (idealerweise) korrekten Labels in Bezug auf eine bestimmte Fragestellung zu versehen. In der Statistik ist eine Population eine Menge von ähnlichen Individuen, Objekten oder Ereignissen, die für eine bestimmte Frage oder statistische Untersuchung von Interesse sind. Typische Beispiele für Klassifikationsaufgaben sind die Zuordnung eines Patienten (Individuum) zu einer Diagnose (Etikett) oder die KLassifikation von E-Mails als “Spam” oder “kein Spam”. Die möglichen Labels stammen aus einer Label-Menge, je nachdem, ob man von einem binären Klassifikationsproblem (zwei mögliche Labels) oder einem Multiklassen-Klassifikationsproblem (eine endliche Menge von mehr als zwei Labels) spricht.

Die Aufgabe eines Lernalgorithmus besteht darin, einen Klassifikator zu erstellen, der für jedes beliebige Objekt in der Population ein Label vorhersagt. Um eine fundierte Vorhersage zu treffen, wird ein Objekt durch eine Reihe von Merkmalen repräsentiert, die als Vektor dargestellt werden. Da die Merkmale die Wahl des vorhergesagten Labels beeinflussen, werden sie als Prädiktorvariablen bezeichnet. Die Labels sind die Werte einer so genannten Zielvariable. Die Erstellung eines Klassifikators basiert auf Trainingsbeispielen, d. h. auf Objekten aus der Grundgesamtheit, von denen die Werte der Prädiktorvariablen und die korrekten Labels bekannt sind. Ein Satz von Trainingsbeispielen wird als Trainingsdaten bezeichnet. Als Maß für den Erfolg wird in der Praxis  anhand von Testdaten  die Fehlklassifikationsrate berechnet. Die Testdaten sind strukturell identisch mit den Trainingsdaten, wurden aber nicht zur Erstellung des Klassifikators verwendet.

Entscheidungsbäume werden algorithmisch aus Daten konstruiert, um als Klassifikatoren zu dienen. Besonders wenn der Baum nicht zu groß ist, macht die Verwendung einer hierarchischen Baumstruktur die Entscheidung sehr transparent und verständlich.

Kurzübersicht über die Inhalte der Unterrichtsstunden

Zitation:

Fleischer, Y., Podworny, S., Biehler, R., Schulte, C., Höper, L. & Hüsing, S. (2024). Künstliche Intelligenz und Maschinelles Lernen mit Entscheidungsbäumen. https://www.prodabi.de/materialien/entscheidungsbaeume/

Veröffentlicht am 01.12.2025

Version:

Lizenzhinweis:

Creative Commons Attribution-ShareAlike (CC BY-SA 4.0)

Nach oben scrollen