Zwischen allen Stühlen … Ohne Sinn und Verstand
Der KI-getriebene Textgenerator ChatGPT macht Prüfenden in Schule und Hochschule Sorgen. Zurecht, meint unser Autor Albert Kümmel-Schnur, der die neu entstandene Situation aber auch für eine Chance hält.
Eines vorweg: wir müssen uns hier nicht um wahrscheinliche Leistungen und mögliche Defizite unterhalten. Das interessiert mich nicht – weder grundsätzlich noch in diesem Text. Und noch eines zum Verständnis: worum geht’s überhaupt? Die meisten werden’s mitbekommen haben, im November 2022 veröffentlichte die Firma OpenAI den von Künstlicher Intelligenz betriebenen Textgenerator ChatGPT im Netz (https://openai.com/blog/chatgpt/) und seitdem heult’s im Blätterwald, auch dort, wo’s wenig rascheln kann. ChatGPT ist nämlich tatsächlich in der Lage, Texte zu produzieren, die von Menschen nicht mehr ohne weiteres als KI-Produkte identifizierbar sind.
Das Ende textbasierter Prüfungen?
Genau diese Ununterscheidbarkeit im Verein mit der freien Verfügbarkeit der Software im Netz alarmiert alle, die mit textbasierten Prüfungsformen in Schule und Hochschule beschäftigt sind. Zurecht wird festgestellt: wenn die Unterscheidbarkeit der menschlichen Herkunft eines Textes nicht mehr mit Sicherheit festgestellt werden kann, dann ist das das Ende textbasierter Prüfungen. (Im selben Atemzug, das sei nur nebenher bemerkt, freuen sich alle, die schnelles Lesen und Textproduktion in Lichtgeschwindigkeit propagieren: toll, da kann ein Programm einfach so 150 und wahrscheinlich auch mehr Fachtexte sinnvoll in einem neuen Text zusammenfassen. Total praktisch!)
KI wie Menschen
Mir scheint, die Frage der Prüfungsformen ist lösbar und diese Lösung wurde auch schon benannt: prüfen wir halt mündlich. Das eigentliche Problem hinter den Erfolgen der KI-Programmierenden ist ein ganz anderes: die geteilte Erwartung, dass KI so wie Menschen funktionieren müsse, womöglich besser. Bessere Urteile in Rechtsprozessen fällen. Sicherer Unfälle vermeiden beim automatischen Fahren – Klammer auf: insbesondere von Fahrzeugen, bei denen die eigentliche Leistung ja nicht die Fortbewegung, sondern deren höchstmögliche Individualisierung ist: Klammer zu. Wer wollte, hatte in Konstanz 2019 in der Ausstellung LINK to KI im Turm zur Katz die Möglichkeit, sich über den Stand der KI-Forschung zu informieren (https://link-ki.de/).
Wir sehen unsere Sklav:inn:en nicht mehr
Die eigentliche Frage jedoch ist: zu welchem Zweck möchte man menschliche Fähigkeiten simulieren? (Ausgenommen – Sie merken, das ist jetzt mal ein Text mit vielen Klammeranmerkungen –, ausgenommen also die forscherische Neugier, die einfach selbstbezogen wissen will, ob man das kann. Das, was Forschung immer will: die Lösbarkeit von Problemen herausfinden und im Zuge dieses Prozesses neue Fragen und Probleme generieren, um diese dann wiederum – na, Sie ahnen, wie der Hase oder auch die Häsin läuft.) Weshalb sollte man das, was Menschen können, technisch simulieren und ersetzen? Die Antwort, die die Industrialisierung gab, lautete einerseits Erleichterung von Arbeitsbedingungen. (Was noch nie stimmte. Nur sehen wir in Ameuropa unsere Sklav:inn:en heute nicht mehr. Können Sie ja mal testen auf https://www.fussabdruck.de/fussabdrucktest/#/start/index/, wenn Sie wissen wollen, wie vieler Sklav:inn:en es weltweit bedarf, damit Sie so leben können, wie Sie es nun einmal tun.)
Die Sache mit dem Profit
Das zweite war: Senkung von Kosten. Das, ja, das war die Sache mit dem Profit – Kosten zu senken, ist nur attraktiv, wenn man Gewinne erhöhen will (zuerst zwingt man Kliniken, gewinnorientiert in einem Gemeinwohlsektor zu agieren, weil ja der freie Markt angeblich alles besser kann als der unfrei sorgende Staat, um dann festzustellen, dass das System nicht so richtig tolle Leistungen mehr bringt, weshalb man die Gewinnorientierung wieder abschafft – hehe, Sie haben’s gemerkt, das war die Rechnung ohne den Lauterbach, aber egal, wir wollen ja nicht darüber reden, wie man öffentliche Leistungen ruiniert).
Das dritte ergab sich aus dem zweiten: die Möglichkeit zur massenhaften Produktion schafft niedrige Verkaufspreise, damit sich nun auch alle den gefakten Pelzmantel leisten können. Wohlstand für alle, so lautete das Versprechen. Und bei Künstlicher Intelligenz (im Verein mit Robotik als Industrie 4.0) kommt dann noch das Versprechen, das selbst die klassische Industrie nie halten konnte oder wollte, hinzu: nämlich gleichbleibende, absolut jederzeit gleichbleibende Qualitätsstandards, da ja der Standard keine Interpretations- oder Umsetzungsfrage, sondern nur noch ein technisches Problem bzw. eine Messgröße darstellt.
Wohlstand für alle
Noch einmal also die Gretchenfrage: warum sollten wir das wollen – ich schließe jetzt mal Elon Musk und Jeff Bezos aus, bei denen klar ist, warum sie sowas wollen (wäre doch geil, ein Logistikzentrum OHNE jeden Menschen, ja, eine Weltfirma OHNE Menschen zu betreiben, um die erwirtschafteten Fantastilliarden nunmehr nicht nur in Ausflüge zum Mars, sondern gleich zu Neptun oder Uranus erweitern zu können). Wenn wir also sowohl forscherische Neugier als auch kapitalistische Gewinnsucht als Motive zur Weiterentwicklung von KI ausklammern, dann bleibt eigentlich kein Grund, warum wir uns selbst simulieren wollen sollten oder könnten oder müssten – jenseits vielleicht der experimentellen Beantwortung philosophischer Fragen nach Selbstsein oder existentieller Dialogizität, aber die fallen wieder unter die oben genannte forscherische Neugier.
Das Gegenüber ist ein Input
Wer für eine KI-gefakte Hausarbeit eine gute Note erhält, hat ja selbst außer der Anwendung der KI gar nichts gelernt. Geht’s aber um irgendeinen beliebigen Text oder um Text als soziales Medium? Ich meine, es geht um letzteres. Und dafür ist es völlig wurscht, ob die Maschine das auch kann. Sie kann keine Interaktion von Mensch zu Mensch ermöglichen. Schachspielende Computer spielen nicht Schach, weil sie gar nicht spielen. Sie errechnen mögliche und wahrscheinliche Spielzüge und -situationen, aber sie interagieren ja nicht mit einem Gegenüber. Das Gegenüber ist einfach eine Eingabe, ein Input. Richtig oder falsch, besser oder schlechter, wahrscheinlicher oder unwahrscheinlicher. Mehr nicht. Schach macht aber auch dann Spaß, wenn man alle Spielzüge, wirklich alle kennte, denn es geht ja um die durch und mit dem Spiel bzw. als Spiel geschaffene soziale Situation. Die entsteht eben nicht, wenn auf der anderen Seite einfach nix verstanden wird. So wie ChatGPT zwar Texte schreiben, aber eben nicht verstehen kann.
Schluss mit den Ritualen des Bildungssystems
Und da wären wir dann wieder bei den Prüfungen. Lassen wir das doch einfach. Hören wir auf zu prüfen und ersetzen diese Rituale des Bildungssystems durch Gespräche zwischen Lehrenden und Lernenden. Denn beim Lernen geht’s ja – eigentlich … – nicht um gute oder bessere Noten, sondern um den je eigenen, höchst individuellen Wissens- und Kompetenzzuwachs sowie die persönliche Reifung.
Darum sollte es zumindest gehen, auch wenn sicher zahlreiche Lehrende diese Perspektive als ganz persönliche narzisstische Kränkung empfinden werden. Und ob das Maschinen auch können, ist doch ganz und gar egal. Einfach nur völlig egal. Ich will etwas können oder wissen, weil Wissen und Fähigkeiten wesentlich zur Entfaltung meines Menschseins beitragen.
Text: Albert Kümmel-Schnur, Bild: Gerd Altmann auf Pixabay
Ein Interview als Nachruf auf Peter Weibel
https://www.republik.ch/2023/03/08/das-grosse-vermaechtnis-interview-mit-peter-weibel
(Vielleicht der angemessene Platz für diesen Hinweis auch weil es dem Artikel in Teilen widerspricht?)
Dieses Podcast ist ergänzend ein guter Einstieg in das Thema
„Wie verändert ChatGPT die Arbeitswelt?“
https://detektor.fm/digital/zurueck-zum-thema-chatgpt
Die Funktion von Prüfungen ist es u.a. die Fähigkeiten und Kenntnisse von Personen zu überprüfen und festzustellen. Ich halte es für durchaus sinnvoll, dass die Fähigkeiten und Kenntnisse von Ärzten, Piloten, Handwerkern, Lehrern, Professoren, Autofahrern (Führerschein!!!), Polizisten usw. überprüft werden, bevor diese in Aktion treten können.
Und wenn dafür schriftliche Prüfungen erforderlich sein sollten – was ich mir durchaus vorstellen kann -, dann müssten diese Prüfungen ggf. in „altmodischer“ Art und Weise durchgeführt werden: Als Klausur, handschriftlich auf Papier, ohne Computerzugang in einem „Klassenzimmer“. Dann dürfe zumindest im diesen Fällen das Risiko des Betrugs Mittels „KI“ reduziert werden können.
Hausarbeiten faken?
ChatGPT’s Antwort auf die Frage, ob es überprüfen kann, ob ein Text von ihm stammt:
„Ja, ich kann feststellen ob ein Text von mir stammt, da jeder Text, den ich generiere, mit einem eindeutigen Modell- und Versionskennzeichen versehen ist.“
Das ist doch etwas tröstlich…