Austausch zu KI

Der Austausch zu KI-Anwendungen findet noch viel zu wenig statt beim Lernen. Es bestehen grosse Wissenslücken im Arbeits- und Bildungsbereich. Alle versuchen Vor- und Nachteile der Programme zu entdecken. „Learning by doing“ eben.
Dennoch stelle ich fest, dass die Angst vor KI die frühere Einführung von digitalen Werkzeugen (z.B. Suchmaschinen und Videoformate) weit übersteigt.

Warum konzentrieren sich die Bildungsträger von Sekundar- und Tertiärstufe in der Diskussion auf bestehende Prüfungsformate wie z.B. Haus- und Seminararbeiten, welche leicht mit Hilfe von KI erstellt werden können?
Wird ChatGPT als weitere Bedrohung der Lehrenden empfunden, die Arbeiten nicht mehr mit einem Plagiats-Scanner überprüfen können?  Bereits heute klagen Dozierende, dass sie zu wenig Zeit für die ruhige Durchsicht von Arbeiten haben.
Die persönliche Begleitung wird zum kostbaren Gut, mit oder ohne KI.

Die Bildungsinstitutionen können sich selber und den Lernenden einen Vertrauensvorschuss geben beim Umgang mit diesen neuen Werkzeugen. Abschreiben und Umformulieren von Inhalten gehörte schliesslich auch in analogen Zeiten zum Lernen dazu.
Vielleicht eröffnet die KI einen angepassten Umgang mit neuem Wissen, damit mehr Zeit für den direkten Austausch, den analogen Kontakt bleibt. Auch Prüfungsformate dürfen überdacht werden.

Die Verwendung dieser neuen Werkzeuge, z.Teil bereits integriert in bestehende Software, muss kritisch überprüft werden. Die Tools entwickeln sich laufend weiter, auch wenn niemand genau weiss mit welchen Algorythmen.
Eine „Kritik der reinen KI“ ist definitiv nötig! (Urs Meier, https://www.journal21.ch/artikel/kritik-der-reinen-ki, 20.4.24)

Der frühzeitige Austausch mit Lernenden ist dabei zentral. Es braucht klare Regeln und Abmachungen im Umgang mit KI.

Hilfreich sind die Leitlinien des Hochschulforums Digitalisierung:

https://hochschulforumdigitalisierung.de/wp-content/uploads/2024/02/HFD_Blickpunkt_KI-Leitlinien_final.pdf, S.19

Ein Zürcher Maturand sagt: «Ich habe keines meiner Bücher KI in der Schule mit Chat-GPT für die Matur lernen gelesen. Das hat alles die KI für mich gemacht»

Begriffsklärung Halluzinationen in der KI:

Der Begriff „Halluzinationen“ bezieht sich auf eine besondere Art von Fehler, die KI-Modelle, insbesondere generative Sprachmodelle, machen. Sie können sehr menschenähnlich antworten, Beispiele plausibel hinterlegen. Die teilweise falschen Informationen und Fakten klingen dann überzeugend.
Der Begriff wird z. Teil auch mit „Konfabulation“ (confabulation) bezeichnet oder sogar mit „Unsinn“ (bullshit), da die Sprachmodelle Informationen und Textbausteine ohne menschlichen Verstand zusammensetzen. Die Autoren im folgenden link argumentieren, „dass dies eine unpassende Metapher ist, die die Öffentlichkeit, die politischen Entscheidungsträger und andere interessierte Parteien falsch informieren werden“.

https://link.springer.com/article/10.1007/s10676-024-09775-5