Austausch zu KI

Der Austausch zu KI-Anwendungen findet noch viel zu wenig statt beim Lernen. Es bestehen grosse Wissenslücken im Arbeits- und Bildungsbereich. Alle versuchen Vor- und Nachteile der Programme zu entdecken. “Learning by doing” eben.
Dennoch stelle ich fest, dass die Angst von KI die frühere Einführung von Suchmaschinen (z.B. google) und Videoformaten (z.B. youtube) weit übersteigt.

Warum konzentrieren sich die Bildungsträger von Sekundar- und Tertiärstufe in der Diskussion auf bestehende Prüfungsformate wie z.B. Haus- und Seminararbeiten, welche leicht mit Hilfe von KI erstellt werden können?
Wird ChatGPT als weitere Bedrohung der Lehrenden empfunden, die nicht mehr mit einem Plagiats-Scanner überprüft werden kann? Bereits heute klagen Dozierende, dass sie zu wenig Zeit für die ruhige Durchsicht von Arbeiten haben.
Die persönliche Begleitung wird zum kostbaren Gut, mit oder ohne KI.

Die Bildungsinstitutionen können sich selber und den Lernenden einen Vertrauensvorschuss geben beim Umgang mit diesen neuen Werkzeugen. Abschreiben und Umformulieren von Inhalten gehörte schliesslich auch in analogen Zeiten zum Lernen dazu.
Vielleicht eröffnet die KI einen angepassten Umgang mit neuem Wissen, damit mehr Zeit für den direkten Austausch, den analogen Kontakt bleibt. Auch Prüfungsformate dürfen überdacht werden.

Die Verwendung dieser neuen Werkzeuge, z.Teil bereits integriert in bestehende Software, muss kritisch überprüft werden. Die Tools entwickeln sich laufend weiter, auch wenn niemand genau weiss mit welchen Algorythmen.
Eine “Kritik der reinen KI” ist definitiv nötig! (Urs Meier, https://www.journal21.ch/artikel/kritik-der-reinen-ki, 20.4.24)

Der frühzeitige Austausch mit Lernenden ist dabei zentral. Es braucht klare Regeln und Abmachungen im Umgang mit KI.

Hilfreich sind die Leitlinien des Hochschulforums Digitalisierung:

https://hochschulforumdigitalisierung.de/wp-content/uploads/2024/02/HFD_Blickpunkt_KI-Leitlinien_final.pdf, S.19

Begriffsklärung Halluzinationen in der KI:

Der Begriff “Halluzinationen” bezieht sich auf eine besondere Art von Fehler, die KI-Modelle, insbesondere generative Sprachmodelle, machen. Sie können sehr menschenähnlich antworten, Beispiele plausibel hinterlegen. Die teilweise falschen Informationen und Fakten klingen dann überzeugend.

Leave a Reply

Your email address will not be published.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.