Beitragsseiten

 

  

Innovationen, die durch KI angestoßen werden, folgen atemberaubend aufeinander.

Dieser Blog versucht, wesentliche Aspekte in Bezug zur tertiären Bildung essayistisch aufzubereiten.

 

Ich finde, das Format von Essays – so quasi in lockerer Kaffeehausatmosphäre –  ist hierfür geeigneter als eine systematische Darstellung aufgrund eines statischen Konzeptes. Ein solches Konzept wäre in kürzester Zeit obsolet. 

 

  

 


 

 

 

 

Kosmischer Zusammenstoß

(Ethik 1)

 

 

 

 

 

Richtlinien zur

  • Erstellung schriftlicher Seminararbeiten
  • oder Bachelorarbeiten

Richtlinien zum

  • Verfassen von Masterthesen
  • oder Dissertationen

Richtlinien, Richtlinien, … Universitäten, Hochschulen und akademische Lehrgänge quellen über von vielseitigen und dettailliert oft bis zum letzten Beistrich Regeln für das Schreiben und Verfassen von Arbeiten. Sie bestimmen nicht zuletzt die Strukturen des Forschens, wie das Recherchierte darzustellen ist, wann zu interpretieren, schlussfolgern und zu diskutieren ist.

Was im ersten Moment als Quälerei von Studierenden ausschaut, ist – abgesehen von gelegentlich überformalisierten Vorgaben – eine Hilfe, das seriöse und nachvollziehbare Erkunden der Welt zu erlernen. Es geht darum, das bestätigte oder durch die Forschung zusätzlich gewonnene Wissen sachgerecht darzustellen und der scientific community effizient zu präsentieren.

 

Sowohl diese Vorgaben insgesamt als auch die Zitierrichtlinen haben sich im Verlauf von Wissenschaftler-Generationen im jeweiligen Fach entwickelt. Und zwar  inhaltlich fundiert begründet:

  • Es gibt gute Gründe, wenn Historiker eher Fußnotenzitierungen nutzen. So werden auf derselben Seite ausführlichen Informationen zu den jeweils verwendeten Quellen bereitgestellt. Und Quellen sind in den Geschichtswissenschaften das Um und Auf.

  • Dagegen neigen Sozialwissenschaftler eher zum computergerechten Kurz- und Positionszitaten im laufenden Text wie etwa den Zitierstilen der Harvard-Familie. Weil hier die Argumentationslinie als zentral angesehen wird. 

 

Diese – allerdings nur auf den ersten Blick rigiden – Richtlinien sind Ausdruck des sukzessiv angesammelte Know-hows zahlreicher Wissenschaftsgenerationen.

In diese strukturierte Welt bricht eine fundamental anders funktionierende Welt ein: Die Welt der Tech-Giganten mit KI als Brech- und Umgestaltungshebel. Aber den großen Tech-Unternehmen ist gewachsenen Know-how verdächtig. Meta, Microsoft, OpenAI, Google setzen auf „speed kills“: Urheberrechte werden ignoriert und ungeniert werden Texte, Bilder oder Stimmen geraubt.

Falls ein Aufschrei unüberhörbar wird und US- oder EU-Behörden mit Regulierungen drohen, nehmen die Tech-Unternehmen den einen oder anderen Aspekt nach zwei, drei Jahren mit Bedauern zurück. Man habe es nicht so gemeint, im Gegenteil, sie hätten doch immer hohe ethische Ansprüche gehabt und wollten „der Menschheit dienen“.

 

 

Was die Tech-Giganten in den letzten zwanzig Jahren mit der Innovation von sozialen Medien auch bewirkt oder zumindest verstärkt haben: Das soziale Auseinanderfallen in polarisierte und zerrissene Gesellschaften. Aus einem ursprünglich für militärische Resilienz gegründeten Internet wollte man in den 1990er Jahren eine gemeinnützige Infrastruktur schaffen. Diese sollte Kommunikation für alle verbürgen und damit Wissen und Freiheit ermöglichen.

Heute funktioniert das Internet leider anders. Man hat den Eindruck, stündlich über den Tisch gezogen zu werden durch maßgeschneiderte Angebote, welche die eigenen Schwächen gnadenlos ausnützen. 

 

Was bringt nun die KI?

Die KI-Welt wird von denselben großen und privaten Technik-Firmen vorangetrieben. Ethische Überlegungen spielen keine Rolle – Macht, Einfluss und Profit müssen am Ende des Tages herausragend sein.

Diese weitgehend ehrlose Welt der Tech-Giganten bricht jetzt in die respektierte Welt der wissensgenerierenden Institutionen ein. Aus wissenschaftlicher Sicht erleben wir einen derart fundamentalen Zusammenstoß, wie er sich beispielsweise in unserem Sonnensystem vor viereinhalb Milliarden Jahren abgespielt hatte:

Die Proto-Erde soll nach der Theia-Hypothese mit einem etwas kleineren Planeten zusammengekracht sein. Die zahllosen heißen Gesteinstrümmer dieses katastrophalen Ereignisses zogen in einer Bahn um die Erde herum, kondensierten und bildeten den Mond. Es gibt Gutes im Schlechten: Der Mond übte über die Jahrmillionenen einen stabilisierenden Einfluss auf die Bewegung de Erde aus, sodass sich Leben bilden und entwickeln konnte. 

Gehen wir ähnlichen Zeiten entgegen: Zuerst der große Zusammenstoß der wissenschaftlichen Welt mit der KI-Welt samt Zerstörung zentraler Wissenstraditionen? Könnte später eine Stabilisierung einsetzen?

Wenn ja, wird die Wissenswelt in vielen Teilen anders funktionieren als jetzt. Wir gehen spannenden Zeit entgegen.

 

27. Mai 2024

 


 

 

 

 

Graue Literatur – KI besetzt den blinden akademischen Fleck

 

 

 

 

 

Interviews von Wissenschaftlern in Tageszeitungen, Statistiken, Konferenz- oder Geschäftsberichte, Blogs, Newsletter, Symposien, White Papers, persönliche Briefe, Präsentationen, Pressemitteilungen, Patente, technische Dokumentationen, unveröffentlichte Werke  

was ist allen diesen Formen gemein? Sie sind oder enthalten Daten, das Gold der Gegenwart. Häufig allerdings auch zweifelhafte Daten. Daher ist in wissenschaftlichen Arbeiten zurecht Skepsis angebracht, diese eins-zu-eins als seriöse Quelle zu verwenden. Doch gleich ein Verbot auszusprechen, wie es einige akademische Bereiche tun, hieße, das Kind mit dem Bade auszuschütten.

 

So kann gerade in Interviews von Wissenschaftlern Neues und noch nicht Publiziertes enthalten sein. Es können übergreifende Konzepte in verständlichen Worten aufgezeigt werden. Gerade übergreifende Konzepte sind in der Regel paradigmatisch in Fachveröffentlichungen nicht vorgesehen. 

Graue Literatur wird traditionell definiert als nicht kommerziell durch Verlage vertriebene und nicht im Buchhandel erhältliche Literatur. Wissenschaft ignoriert graue Literatur. Sie ist im akademischen Bereich global nur in Spuren vorhanden1, obwohl diese Literaturform in der Regel detailliert, flexibel, aktuell und kostengünstig herzustellen ist. Häufig bietet sie eine deutlich übergreifendere Sicht als andere Daten- und Textarten. Überdies verfügen Institutionen und Verlage nicht über den regulierenden Zugriff, höchstens können sie die Verbreitung unterstützen2. 

 

In der Wirtschaft scheinen Unternehmen diese Quellen nun zu entdecken. Denn in diesen grauen Daten können Erkenntnis-Perlen zu finden sein. Die darin enthaltenen Informationen könn(t)en die Erkenntnisse aus den üblichen betriebswirtschaftlich monolithischen Datenströmen der Unternehmen erweitern und so verbessern.

Graue Literatur stellt ein Netz von vielen zweifelhaften Daten dar. Aber in diesem Netz stecken interessante, die Norm bestätigende oder von der Norm abweichende Informationen. Klar, es ist nicht so einfach, die Perlen in dem Informationshaufen der grauen Literatur zu finden. Oder sinnvolle Erkenntnisse aus einer Gesamtsicht dieses Netzes abzuleiten.

Die Herausforderungen sind beachtlich, denn diese graue Literatur gehört selbstverständlich aufgrund von Prüf- und Selektionsprozessen aufbereitet, will man sie denn zu Erweiterung eines bewährten Wissens nutzen.

 

Nun aber kommt die genKI. Man schätzt, dass die KI innerhalb der nächsten zwei bis drei Jahre das komplette Internet abgegrast und aufgenommen haben wird. Also auch die nichtkonventionelle graue Literatur.

Sie wird daher in Kürze in den KI-Speichern vorhanden sein und in die Algorithmen und Antworten der KI einfließen. Dadurch wird die Qualität der KI-Antworten vielleicht mal besser, wahrscheinlich aber eher schlechter ausfallen. Graue Literatur wurde eben nicht fachgerecht aufbereitet.

20. Mai 2023

 

1 Goedegebuure, A./Kumura, I./Driessen, S. et al. (2023). Data Mesh: a Systematic Gray Literature Review. J. ACM, Vol. 37, No. 4, Article 111. Publication date: August 2023.

2 Dubal M. (2018). A Study of Grey Literature.  S. 265-269.  In: ASM‟s International E-Journal on "Ongoing Research in Management & IT", 12th - 13th January 2018.

 

Auf der nächtlichen Donau in der Wachau

 

 


 

 

 

 

KI-Erfahrungen wertvoller als Bachelor-Abschluss?

 

 

 

 

Jeder zweite (49%) einer  Befragung von 800 amerikanischen Führungskräften und Personalverantwortlichen gab im April 2024 an, ChatGPT-Kenntnisse und Erfahrungen im KI-Umgang seien wichtiger als ein College-Abschluss1 2. 

 

Fabian Stephany, Arbeitsmarktforscher an der Universität Oxford, erklärt: „Eine umfassende Analyse von Jobofferten und Gehaltsangaben aus Großbritannien hat ergeben, dass der Gehaltsaufschlag für KI-Skills rund 16 Prozent beträgt. Das ist fünfmal mehr als der durchschnittliche Wert aller anderen Fähigkeiten. […] Tatsächlich ist bei KI-Jobs kaum noch ein Gehaltsvorteil für Akademiker zu erkennen.“3

 

Fazit: Die theoretische Fundierung von Fähigkeiten und Wissen wird weniger wichtig. Aufgrund der rasanten KI-Entwicklung rückt das Beherrschen von Szenarien der realen Welt in den Vordergrund. Das selbständige Lernen und fortwährende Entwickeln neuer Fertigkeiten ist ausschlaggebend. Das wiederum verstärkt Kreativität und Produktivität.

 

 —> Brennt Feuer am Dach unserer Unis?

 

Ja und Nein!

 

Darum Nein: 

Ein Knackpunkt liegt in den genannten Begriffen KI-Kenntnisse und Erfahrungen. Wer nie erfahren hat,

  • was seriöse Quellen sind,
  • wie nützlich Theorien und Modelle sein können,
  • wie wichtig aber auch deren Grenzen und Geltungsbereiche sind,
  • wie Fallgruben in (nicht präzisen) Definitionen von rasch formulierten Begriffen liegen,

kann den Output von KI nicht wirklich einschätzen und beurteilen. Er wird den Output für bare Münze halten. Auch wenn der (tendenziell denkbefreite?) Anwender gelernt hat, irgendwie passende KI-Prompts zu verfassen.

Insofern gleicht die Begeisterung von Führungskräften und Personalverantwortlichen für KI den Modewellen im Bereich betriebswirtschaftlicher oder technologischer Innovationen. Jahr für Jahr wird eine neue und quietschende Marketing- oder Technologie-Sau durch das globale Dorf getrieben: Big Data, Digitale Transformation, Customer Relationship Management, Nachhaltigkeit, Corporate Social Management, Agiles Projektmanagement, Internet der Dinge, Blockchain-Technologie, Plattformökonomie .... Nicht, dass die Inhalte dieser gehypten Konzepte falsch wären, nur lehrt die Erfahrung, dass sie oft eine ganze Generation und länger benötigen, bis sie greifen.

Wenn man zum Beispiel liest, wofür gemäß der erwähnten Befragung die genKI in den US-amerikanischen Unternehmen eingesetzt werden soll, dann ordnet sich einiges deutlich kleiner ein: Dateneingabe, Schreiben von e-Mails, Aufgabenlisten, Recherchen, Kundensupport.

 

Darum Ja: 

Die Ziele der tertiären Bildung changierten schon immer zwischen (allgemeiner und erkenntniserweiternder) Bildung und (beruflicher) Ausbildung. Die rasante Entwicklung der genKI und die breite Übernahme durch Unternehmen, Organisationen und Gesellschaftsgruppen aller Art werden die Waage in Richtung Ausbildung drücken. 

Abzuwarten bei der KI-Thematik nach dem Motto „Schau ma moi, dann seng ma scho" wird sowohl den Unis als auch den Studierenden schaden.

 

18. Mai 2024

 

1 intelligent.com, learning how to learn (10.04.2024). Half of business leaders say chatgpt experiences is more valuable than a college degree. https://www.intelligent.com/half-of-business-leaders-say-chatgpt-experience-is-more-valuable-than-a-college-degree/ 

2 Dies entspricht im europäischen Hochschulsystem einem Bachelor-Abschluss.

3 Von Elm, K. (27.02.2024). Stephany im Interview. „KI-Skills bringen so viel wie ein Doktortitel“. Handeslblatt. https://www.handelsblatt.com/unternehmen/interview-mit-fabian-stephany-ki-skills-bringen-so-viel-wie-ein-doktortitel-03/100012315.html

 

Abfahrt wohin?

 


 

 

 

 

 

 

 

NICHT von der KI zu erfragen (B):

 

 

 

 

 

 

 

 

 

3) Zitieren und Zitate suchen

 

Angenommen, du hast zu offenen Fragen spontane Aussagen von 700 Personen. Diese Aussagen werden in der weiteren Analyse in Kategorien unterteilt. Wenn du nun nach bestimmten Aussagen suchst, wirst du ein blaues Wunder erleben. Dies gilt auch dann, wenn du ausdrücklich darauf hinweist, dass du Originalaussagen präsentiert haben willst. 

  • Vergleichsweise harmlos ist das erste Beispiel: Aus der Originalaussage "1 Kind" wird "Ein Kind".
  • Schon deutlich abweichender ist das zweite Beispiel: Aus der Originalaussage "Auch die Lehrkräfte waren" wird "Die Lehrer:innen waren". Überdies fehlt das "Auch", wodurch es zu Sinnveränderungen kommt. Ebenso verändernt GPT die unzulässigerweise die Aussage, indem er meint, gendern zu müssen.

 

Ein schwerwiegende Fehler entsteht aber aus der Tatsache, dass GPT4 – angabenwidrig – Zusammenfassungen mehrerer Originalaussagen macht und als eine (!) Originalaussage präsentiert.
Fazit: Vieles sieht man nicht sofort (daher alles, aber auch wirklich alles checken!), manches ist als Zusammenfassung sofort zu erkennen. 
Wenn zum Beispiel nach der Situation in der einzelnen jeweiligen Familie während der Corona-Pandemie gefragt wurde, aber als "Originalaussage" präsentiert wird: "Einige Familien erlebten [...]", dann weißt du, dass du diese Aussage im eingegebenen Text nicht finden wirst. Sie ist schlicht falsch. 

 

 

Worauf die nächsten beiden Don't do that logisch folgen: 

 

4) Vertraue nicht darauf, dass die KI etwas ganz spezifisch Gesuchtes findet.

Das Gesuchte ist möglicherweise NICHT im Text vorhanden --> simple Texteditoren oder Spreadsheets wie Excel können das besser.

 

5) Vertraue nicht darauf, dass die KI etwas ganz spezifisch Gesuchtes im eingegebenen Text tatsächlich nicht vorhanden sein. 

Das Gesuchte kann DENNOCH im Text vorhanden sein --> simple Texteditoren oder Spreadsheets wie Excel können das besser.

 

15. Mai 2024

 

 

Die Fehler-Bugs lauern überall 

 

 


 

 

 

 

NICHT von der KI zu erfragen (A):

 

 

 

 

 

1) Exakte Zahlen errechnen

Zwei Beispiele zum Multiplizieren und Dividieren ergaben im ersten Versuch folgende Ergebnisse:

 

 

Die Multiplikation ist eindeutig falsch. Das richtige Ergebnis lautet 12.186.984, also um fast 5.000 daneben.

 

Dagegen führt die Division nicht sofort in tiefen Abgrund. Das richtige Ergebnis lautet 3.713,73. Es weicht also hinsichtlich von zwei Nachkommastellen um 34 Hunderstel vom Ergebnis ab.

GPT4 führt hier einen Eiertanz auf: Erstens schreibt es richtigerweise von "ungefähr", aber bietet dann eine Zahl mit acht Nachkommastellen an. Man nennt das in der Statistik false precision oder fake precision. Eine bestimmte Genauigkeit vortäuschende Präzision führt in die Irre.

Dies kommt nicht selten in wissenschaftlichen Veröffentlichungen vor. Wenn bei 70 erhobenen Datensätzen beispielsweise für ein deskriptives Ergebnis 23,6% angeben wird. Eine solche standardisierende Promille-Angabe (Pro-Mille, also je Tausend) wäre eigentlich erst im vierstelligen Bereich von Datensätzen berechtigt.

Fazit: Simple Taschenrechner können das besser.

 

2) Frequenzen erheben

Wie zum Beispiel die Anzahl des Wortes „und“ in einem Text zählen. Ein eingegebener deutscher Beispieltext von insgesamt 3.236 Wörtern enthält das Wort „und“ 116 Mal.
GPT4 meint dagegen, es seien 122. 

Fazit: Simple Texteditoren können das besser.

 

12. Mai 2024 

 


 

 

 

 

Ein Befehl, der etwas ans Licht bringt

 

 

 

 

Das Hauptwerkzeug, um die KI zu bedienen, ist die einzugebende Anordnung, das Prompt. Das Wort kommt aus dem Lateinischen und bedeutet "hervorholen, ans Licht bringen, zeigen", aber auch "erzählen, eine Rede halten"1

Treffender könnte es für das, was die KI dann produziert, nicht formuliert sein. Die KI bringt durch das Prompt etwas hervor, indem sie erzählt.

Das hört sich vorerst simpel an, du brauchst ja nur was befehlen. Ist aber nicht so simpel, die Anordnung stellt sich gleich von Anfang an als Herausforderung dar: Du schaust auf eine leere Zeile, die offensichtlich etwas erwartet. Und zwar was Gescheites und Sinnvolles!

Psychologisch gesehen eine schwierige Situation, die Druck aufbaut. So leer, aber auch erwartungsvoll blickt das Prompt auf dich:

 

 

Andererseits gleicht der Prompt einer Peitsche des Dompteurs, wenn er in der Zirkusmanege Tiger durch brennende Reifen springen lässt. Das kann klappen, aber auch schief gehen. Der Anwender merkt es wahrscheinlich nicht, dass er einen Blödsinn serviert kriegt.

Da die vorhergehenden Beiträge länger waren, werde ich mich diesmal kurz halten. Drei zentrale Dimensionen kennzeichnen ein geglücktes Prompt: die Rolle, der Kontext, die Anweisung.

  • Zur Rolle, welche die genKI übernehmen soll: Sie kann künstlerische Aufgaben übernehmen ("Erzähl' mir über ..") oder den Buddy/Kumpel spielen, motivieren, zusammenfassen, Alternativen aufzeigen, als Trainer oder als Sparringpartner innerhalb eines neosokratischen Dialogs etc. fungieren.

  • Zum Kontext: Der Kontext (wortwörtlich: "webt zusammen"2) verknüpft die Rolle mit der relevanten Umgebung. Da dieser Blog fokussiert ist auf genKI in Zusammenhang mit tertiärer Bildung (Universitäten, Hochschulen, Kollegs,...), ist es ratsam, die jeweilige wissenschaftliche Disziplin anzugeben.
    Je konkreter der Kontext, umso zutreffender die Antwort und umso geringer ist der anschließende Check- und Korrekturaufwand.

    Klar, dass auch fachübergreifend (inter- oder transdisziplinär) der Kontext angegeben werden kann. So werden Wege aufgezeigt, an die man nicht gedacht hatte. Die Chance, erheblichen Quatsch zu erhalten, der weit jenseits von Wissenschaft liegt, sozusagen "pseudo-scientific", ist dennoch hoch. 

  • Zur Anweisung: Die genKI soll was tun. Ein Fokus liegt auf den Anweisungen mit Hilfe der verwendeten Zeitwörter, Verben oder "Tun-Wörter", wie diese Wortform in der Volks- und Grundschule richtigerweise genannt wird. Hauptwörter dagegen sind wie riesige Steine, die in der Gegend herumliegen. Erst Tun-Wörter erzählen die Geschichte und bringen Leben in die Szene --> also konkret die KI generieren lassen. Die Anweisung kann aus mehreren Sätzen bestehen.

 

Viel Mut im Umgang mit der KI – schwingen Sie die Peitsche!  
 

 5. Mai 2024

 

1 Langenscheidt (2008). Großes Schulwörterbuch Lateinisch-Deutsch. Berlin: Langenscheidt, S. 647

2 ebd., S. 192

 


 

 

 

 

 

 

 

GPT4: Auf den theoretisch-paradigmatischen Zahn gefühlt

 

 

 

 

 

 

Schon im vorherigen Beitrag hatte ich ein Thema abgefragt, das innere Widerhaken hat:

Public Health – Prävention durch individuelle Präzisionsmedizin.

Diesmal wollte ich es genau wissen, ich bin nämlich der Meinung, dass die Verbindung der zwei angeführten "Sub-"Themen im gemeinsamen Kontext miteinander nicht vereinbar sind. Keinesfalls baut eines auf dem anderen auf. Auch ergänzen sie einander nicht. Wird ein Ansatz forciert, kommt der andere unter die Räder

Auch klar ist, dass beide Ansätze in der gesellschaftlichen Realität schon nebeneinander vorkommen, wenn auch die Präzisionsmedizin noch als kleine Schwester fungiert. In der Folge steht das vollständige Prompt mit GPT4 in der Rolle als Gutachter:

(Prompt): Du hast die Rolle eines wissenschaftlichen Gutachters. Der Kontext ist wiederum mein Studium in Gesundheitswissenschaften, im Speziellen das Thema "Public Health – Prävention durch individuelle Präzisionsmedizin".

In diesem Thema sind zwei Subthemen "Public Health" und "Prävention durch individuelle Präzisionsmedizin"  miteinander verknüpft. Sind diese zwei Subthemen von ihren Paradigmen her miteinander kompatibel? Antworte mit Ja oder Nein und gib Begründungen dafür an. 

Zum inhaltlichen Verdeutlichung dieses Prompts: Ich stelle hierin vier theoretisch-paradigmatisch relevante Vorgaben auf: 1. GPT4 soll in der Rolle eines wissenschaftlichen Gutachters, also kritisch sein. 2. Es geht um Gesundheits-Wissenschaften. 3. Es geht um „individuelle“ Präzisionsmedizin (mit einer Hinweisverdoppelung durch „individuell“, obwohl das Individuelle bereits im Begriff Präzisionsmedizin impliziert ist) und das alles entscheidende Umfassende: 4. Ist das Gesamtthema von ihren Paradigmen her kompatibel?.

Urteil von GPT4: Ja, die beiden Subthemen „Public Health“ und „Prävention durch individuelle Präzisionsmedizin“ sind von ihren Paradigmen her miteinander kompatibel und können sich sogar ergänzen.

Ich erspare den geneigten Blog-Lesern die Details der ausführlichen Begründungen. GPT4 schreibt von einer Erweiterung des Public Health-Ansatzes, die zu einer größeren Effektivität der öffentlichen Gesundheitsmaßnahmen führe.

Es werden zielgerichtete Präventionsstrategien angeführt, die auf spezifische Risikogruppen zugeschnitten sind, was zu geringeren Kosten führen soll. Ebenso sollen Integrations- und Synergie-Effekte durch Nutzung von anfallenden Daten entstehen. Und – kaum zu glauben: Diese thematische Verbindung sei ethisch und sozial kompatibel.

Die Begründungen lesen sich abgeklärt und flüssig, wie frisch aus dem Lehrbuch für Gesundheitswissenschften eines Bachelorstudiums abgeschrieben. Sie wirken überzeugend.
Auf den ersten Blick.

Der zweite Blick zeigt, dass die Begründungen nicht stichhältig sind. Die Paradigmen, die Ansätze und entsprechenden Definitionen, Vorgehensweisen und Folgerungen sind nicht nur grundverschieden, sondern einander entgegengesetzt.

Hierbei geht es keinesfalls um begriffliche Spitzfindigkeiten. Wissenschaftliche Aussagenverlieren ihre Geltung, wenn sie in andere Rahmenbedingungen und in andere Fachgebiete unverändert übertragen werden.

Die chaotischen Diskurse während der Corona-Pandemie samt den langfristigen politischen und sozialpsychologischen Folgen im deutschsprachigen Raum zeigen dies deutlich. So hatten Schwurbler, Verschwörungstheoretiker, Impfgegner und Wissenschaftsleugner viel Auftrieb erhalten. 

Beginnen wir mit den Definitionen. Eine verbreitete Definition von Public Health lautet: „Unter Public Health verstehen wir eine von der Gesellschaft organisierte, gemeinsame Anstrengung, mit Ziel der Erhaltung und Förderung der Gesundheit der gesamten Bevölkerung oder Teilen der Bevölkerung, […]“1.

Dieser soziale und gesellschaftlich breite Top down-Ansatz kommt im deutschen Begriff „öffentliche Gesundheitspflege“ für Public Health noch deutlicher zum Ausdruck.

Dagegen wird Präzisionsmedizin definiert als „[…] an innovative approach that uses information about an individual’s genomic, environmental and lifestyle information to guide decisions related to their medical management. The goal of precision medicine is to provide more a precise approach for the prevention, diagnosis and treatment of disease.“2 

Kurz, es geht um das spezifische medizinische Management von Individuen.

 

Dazu der zusammenfassende letzte Satz von GPT4: Insgesamt sind die Paradigmen von Public Health und der Prävention durch individuelle Präzisionsmedizin kompatibel und können durch ihre Kombination zu einer umfassenderen und effektiveren Gesundheitsversorgung und -prävention führen. 

Nicht doch, eine Gegenüberstellung von Ansätzen, entsprechenden Handlungen und Folgerungen zeigt das gegenteilige Bild: 

  1. Public Health nützt gemäß ihrem seit rund 150 Jahren entwickelten Konzept universelle Ansätze wie Aufklärung und Impfungen. Public Health beruht auf kostengünstigen Angeboten oder sanften Interventionen, die auf große Segmente der Bevölkerung, wie Kinder, Schwangere oder Alte, gerichtet sind.

  2. Präzisionsmedizin hingegen fokussiert mittels spezifischer Methoden auf eine individuelle Person. Präzisionsmedizin baut auf einzigartigen biologischen Faktoren wie Genen, Molekülexpression oder Mikrobiom auf. Sie ist daher höchst ressourcenintensiv und teuer.

  

  1. Public Health beruht auf knappen Budgets öffentlicher Institutionen, die auf traditionelle Techniken und Anwendungen ausgerichtet sind.

  2. Präzisionsmedizin erfordert neueste Technologien und spezifische Fachkenntnisse, was die Kosten für das Gesundheitssystem erhöht und potenziell Ressourcen von breit angelegten Public Health-Programmen abzieht.

 

  1. Public Health nutzt allgemeine Daten der Population, die öffentlich zugänglich sind.

  2. Präzisionsmedizin nutzt private biologische Daten, die vertraulich und streng zu schützen sind: „[it] takes advantage of large data sets of individuals such as their genome or their entire electronic health record to tailor their healthcare to their unique attributes“3.

 

  1. Die Prinzipien von Public Health sind auf Gleichheit ausgerichtet. In vielen Ländern wird die Ungleichheit in der Gesundheitsversorgung größer. 

  2. Gleichheit ist kein relevantes Prinzip der Präzisionsmedizin. Im Gegenteil, der in der Welt nur einmal vorkommende Mensch ist als In-dividuum (wörtlich 'un-teilbar': ein Teilen/Sharing ins genetische bzw. molekulare Unten oder ins soziale Oben ist nicht enthalten) anzusehen: „It is common sense that no two individuals are the same, and so they should not get the same healthcare. Precision healthcare embodies that simple idea.“3  

 

--> All dies wird unweigerlich zu anhaltenden monetären, gesellschaftlichen und politischen Konflikten zwischen beiden Ansätzen führen. 

Schon im Jahr 2012, kurz nach dem Prägen des Konzeptes von Präzisionsmedizin, wusste man, dass es eine Langzeitperspektive benötigt. Die Einschätzung bestand darin, dass es sogar Generationen dauern würde, um ein weniger anspruchsvolles Ziel als das von Public Health zu erreichen: Nämlich aus den Erkenntnissen der Präzisionsmedizin Informationen für die medizinische Behandlung von Subgruppen der Population zu erhalten.

Das finale Ziel: Eine Synthese im Rahmen einer Verbindung von gesellschaftlich breit aufgestellter Public Health und individuell fundierter Präzisionsmedizin zu erreichen. 

Hierfür wird noch viel Wasser die Donau hinabfließen, damit beide Ansätze nach vielen theoretischen und praktischen Überlegungen, Erfahrungen und notwendigen paradigmatischen (!) Anpassungen einander näher kommen.

 

Fazit: Übergreifendes Rahmendenken kann GPT4 derzeit noch nicht. Deduktive Schlussfolgerungen aus gegebenen Prämissen => Fehlanzeige. Ergo, GPT4 hat den paradigmatischen Test nicht bestanden. 

27. April 2024

 

1 Egger, M./Razum, O./Rieder, A. (Hrsg.) (2018). Public Health kompakt. 3., aktualisierte und erweiterte Auflage. Berlin: Walter de Gruyter. S. 1 

2 National Human Genome Research Institute (NIH) (25. April 2024). Precision Medicine. Definition. https://www.genome.gov/genetics-glossary/Precision-Medicine.

3 Biesecker, L. (26. April 2024). Narration. NIH, https://www.genome.gov/genetics-glossary/Precision-Medicine.

4 Smith, R. (2012). Stratified, personalised, or precision medicine. BMJ, 39, 143-158. Die Organisation bmj.com publiziert das British Medical Journal.

Die argumentative Hintergrundkonstruktion von GPT4 ist schief und voller inadäquater Spiegelungen

 


 

 

 

 

KI in der Rolle als Motivator 

 

 

 

 

 

(Prompt:) Du hast die Rolle eines Motivators. Der Kontext ist mein Studium in Gesundheitswissenschaften, ich bin säumig und habe keine Lust Prüfungen zu machen. Wie munterst du mich auf?

Verfasse nicht mehr als vier Sätze im Dialog-Stil. Starte den Motivierungs-Dialog mit "Reinhard, wie gehts?“

 

GPT4: Reinhard, wie geht's? Ich weiß, es kann manchmal echt schwer sein, die Motivation aufrechtzuerhalten, aber denk daran, wie wichtig deine Arbeit in den Gesundheitswissenschaften ist – du machst einen Unterschied!

Lass uns gemeinsam kleine, machbare Ziele setzen, um den Berg an Arbeit weniger einschüchternd zu machen. Wie wäre es, wenn wir heute nur mit einer Stunde Lernen beginnen und dann sehen, wie es läuft?1

 

Du (eigentlich ich): Eine Stunde ist zuviel. Mir ist momentan jede Minute zuviel.

GPT4: Reinhard, das klingt wirklich herausfordernd, aber es ist völlig okay, sich so zu fühlen. Was hältst du davon, wenn wir einfach mit einer kurzen Fünf-Minuten-Session beginnen, nur um den Ball ins Rollen zu bringen?

Manchmal ist der erste kleine Schritt der wichtigste, und alles, was danach kommt, wird leichter. Wir können es zusammen durchgehen, Schritt für Schritt.

 

Du: Fünf Minuten sind ok. Ich hab als Thema "Public Health" für eine Seminararbeit. Womit soll ich beginnen? 

GPT4: Reinhard, super, dass du es mit fünf Minuten versuchst! Für deine Seminararbeit in "Public Health" könntest du damit beginnen, eine spezifische Fragestellung oder ein spezielles Thema zu wählen, das dich wirklich interessiert.

Wie wäre es, wenn du dir zunächst ein paar Kernbereiche von Public Health ansiehst, wie z.B. Prävention, Gesundheitsförderung oder Gesundheitssysteme? Notiere dir einfach ein paar Ideen oder Schlüsselwörter, die dir spannend erscheinen – das ist ein großartiger erster Schritt!

(Vorläufiges Ende des Dialogs)

 

GenKI übernimmt hier die Rolle des Motivators. Sie soll dich aus der Sackgasse des Nichtstuns im Studium herauszuholen. Endlich einmal was anderes als die ewig gleichen Zusammenfassungen eines Textes oder Gliederungsvorschläge zu einem Thema, wie sie für Studierende gerne vorgeschlagen werden.

Nur, es gilt auch hier: Man braucht Know-how, um passende Prompts mit qualitativ hochwertigem Output zu entwickeln. Schränkt man das Prompt nicht auf maximal vier Sätze ein, ergeben sich ellenslange Sermone, also langatmiges und psychologisch-therapeutisches Geschwafel. Zum Einschlafen!

Ein Prompt ohne Einschränkung hätte auf diese Weise das Gegenteil bewirkt: eine weitere Lähmung des Anfragenden.  Merke: Wie bei Medikamenten ist auch für die genKI der "Beipackzettel" wichtig.

Dennoch empfiehlt es sich, weitere Rollen, in die die genKI reinschlüpft, auszuprobieren. Das sind Rollen2 als 

  • Alternativmaschine – alternative Wege, eine Idee auszudrücken,

  • Sokratischer Sparringpartner – persönlicher Tutor auf Basis einer Information über den Stand des (Zuwenig-)Wissens,

  • Kumpel im Studium – genKI hilft beim Reflektieren anfallender Studienmaterialien,

  • Trainer für Jobinterview – Vorbereitung auf einen spezifischen Job in konkretem Unternehmen (aufpassen, aufgrund des Zugriffs von genKI auf das Durchschnittliche kann das unauthentisch wirken und somit das Gegenteil des Gewünschten erzeugen),2.

In der Fortsetzung des Dialogs mit ChatGPT in der Rolle des Motivators hab ich ein deutlich konkreteres Thema gewählt und auf Spiele und Herausforderung gesetzt. Das Ergebnis regt zum Weitermachen an:

(Prompt): Du hast die Rolle eines Motivators. Der Kontext ist mein Studium in Gesundheitswissenschaften, im Speziellen das Thema "Public Health – Prävention durch individuelle Präzisionsmedizin" habe ich einiges gemacht, stecke nun aber fest. Wie kannst du mich durch themeneingebaute Spiele und Herausforderungen zum weiteren Schreiben bringen? Sprich mich mit "Reinhard" an.  

 

GPT4: Reinhard, ich sehe, du hast schon viel erreicht, das ist großartig! Wie wäre es, wenn wir dein Thema mit einem kleinen Quiz oder einem Gedankenspiel auflockern?

Du könntest zum Beispiel versuchen, in einer fiktiven Situation präventive Maßnahmen für eine spezielle Patientengruppe zu entwerfen – stell dir vor, du berätst eine Stadtverwaltung, wie sie ihre öffentliche Gesundheitspolitik verbessern könnte. Das bringt dich vielleicht auf neue Ideen und gibt dir frischen Wind für dein weiteres Schreiben.

 

Du: Wie könnte solch ein Quiz aussehen?

GPT4: Ein Quiz zu "Public Health – Prävention durch individuelle Präzisionsmedizin" könnte eine spannende und interaktive Art sein, dein Wissen zu vertiefen und dich gleichzeitig zu motivieren. Hier ein Beispiel, wie du so ein Quiz gestalten könntest:

 

## Quiz: Präventive Strategien in der Präzisionsmedizin

*Frage 1: Was versteht man unter Präzisionsmedizin?**

A) Behandlung von Patienten mit stark verallgemeinerten Methoden

B) Einsatz genetischer Informationen zur Erstellung individueller Behandlungspläne

C) Verwendung von Over-the-Counter-Medikamenten in der täglichen Routine

 

*Frage 2: Wie kann Präzisionsmedizin zur Prävention von Krankheiten beitragen?**

A) Durch personalisierte Ernährungs- und Bewegungspläne basierend auf genetischen Markern

B) Durch Massenimpfungen ohne individuelle Untersuchung

C) Durch allgemeine öffentliche Gesundheitserziehung ohne spezifische Zielgruppen

 

*Frage 3: Welche Rolle spielen Daten in der Präzisionsmedizin?**

A) Daten sind nicht relevant für die Präzisionsmedizin.

B) Nur klinische Daten aus Krankenakten werden verwendet.

C) Große Datenmengen, einschließlich genetischer, umweltbezogener und Lebensstildaten, werden analysiert, um Muster zu erkennen und präventive Maßnahmen zu ergreifen.

 

*Frage 4: Nenne ein Beispiel, wie Präzisionsmedizin in der öffentlichen Gesundheitspraxis angewendet werden könnte.**

A) Entwicklung personalisierter Impfstoffe

B) Erstellung allgemeiner Leitlinien für die Ernährung der Bevölkerung

C) Einsatz von Antibiotika bei viralen Infektionen

 

*Frage 5: Welche ethischen Überlegungen sind bei der Implementierung von präzisionsmedizinischen Ansätzen in der Public Health Praxis zu beachten?**

A) Datenschutz und Privatsphäre der genetischen Informationen

B) Die Farbe der Tabletten

C) Die Geschwindigkeit, mit der Ergebnisse geliefert werden

 

Dieses Quiz könnte dich dazu anregen, über verschiedene Aspekte deines Studienthemas nachzudenken und eventuell sogar Lücken in deinem Verständnis aufdecken, die du dann in deiner Arbeit weiter ausarbeiten kannst. Es ist eine effektive Methode, um spielerisch zu lernen und sich gleichzeitig mit dem Stoff auseinanderzusetzen.

 

Du: Was machst du, wenn ich falsch antworte, beispielsweise auf die Frage 1 den Punkt A angebe statt B?

GPT4: Reinhard, wenn du bei einer Frage wie der ersten eine Antwort auswählst, die nicht ganz korrekt ist, würde ich dir erklären, warum eine andere Antwort besser passt. Zum Beispiel:

„Ich sehe, du hast A gewählt, was eine häufige Annahme ist. Aber tatsächlich definiert sich Präzisionsmedizin durch den Einsatz von spezifischen Informationen über die genetischen Merkmale eines Individuums, um maßgeschneiderte Behandlungspläne zu entwickeln. Das macht B zur richtigen Antwort.

Es ist wirklich spannend, wie die personalisierte Behandlung und Vorbeugung von Krankheiten durch diese speziellen Informationen verbessert werden können. Lass uns weitersehen, was du über dieses innovative Feld weißt!“

So biete ich dir konstruktives Feedback, das dich ermutigt weiterzulernen und dabei hilft, das Verständnis für das Thema zu vertiefen, ohne dich entmutigt zu fühlen. Es geht darum, aus jedem Schritt im Lernprozess etwas zu gewinnen.

 

Das Psychologisch-Therapeutische kam am Ende wieder durch. Sei's drum, vorher war's ganz nett. 

 

25. April 2024

 

1 OpenAI. (2024). ChatGPT 4 [Large language model]. https://chat.openai.com/?model=gpt-4  

2 Sabzalieve, E. / Valentini, A. (2023). ChatGPT amd Artifical Intelligence in higher education. Quick start guide. https://eduq.info/xmlui/bitstream/handle/11515/38828/ChatGPT-Artificial-Intelligence-in-higher-education-Quick-Start-guide_UNESCO-2023.pdf?sequence=2&isAllowed=y

 

Rolle als Hauskätzchen?

 


 

 

 

 

Erzeugt ChatGPT Erkenntnisse?

 

 

 

 

 

 

Oder chattet sie nur?

Ist sie eine Wahrheitsmaschine oder eine schnöde Schnattergans?

 

Betrachten wir sie vorerst als Geschichtenmaschine, als eine hochmoderne Version eines orientalischen Geschichtenerzählers. Die KI-Antworten auf unsere Fragen wirken in der Regel überzeugend. Die genKI ist geschmeidig und anpassungsfähig, ihre Sätze kennen kaum Ecken und Kanten, das Provozierende fehlt. 

 

Der Abschluss jeder Geschichte (die zusammenfassende Antwort auf das Prompt) relativiert und nimmt vieles zurück, was vorher wie von Zauberhand Wort für Wort am Schirm erschienen ist. Offeriert wird letztendlich eine heile Welt mit blauem Himmel.

 

Ordnen wir die genKI im Bereich der Wissenschaften ein. Und zwar anhand ihrer Algorithmen, die Einsichten produzieren sollen, wo es Wissenslücken des Anfragenden gibt. So gilt Folgendes:

Wissenschaft ist eine Form der Erkenntnis, die auf erfahr- und beobachtbaren Tatsachen beruht. Nicht auf Wahrheiten und auch nicht direkt aus den Tatsachen sofort ableitbar1. Dass wir aufgrund der Erddrehung in europäischen Breitengraden mit rund 200 Meter pro Sekunden von West nach Ost rasen, merken wir nicht. Wir rasen trotzdem. Wir Menschen brauchten lange, um diese Tatsache zu erkennen. Erkenntnisprozesse laufen oft gegen die Intuition ab.

 

Die wissenschaftlichen Erkenntnisformen beruhen auf Analyse- und Syntheseprozessen, die drei Richtungen aufweisen: eine deduktive, eine induktive und eine abduktive.

Die ersten zwei Formen (die deduktive und die induktive) wurden von zahlreichen Wissenschafts-Logikern der letzten Jahrhunderte von oben nach unten und von unten nach oben durchgekaut. Daher sei hier nur kurz geschrieben1: 

  • Deduktive Schlussfolgerungen sind simpel, zumeist formal und langweilig. Die Schlüsse vom Allgemeinen, von generellen Regeln auf das Einzelne, erzählen nichts Neues. Sie machen Bekanntes nur sichtbarer.

  • Die umgekehrten Schlüsse, die induktiven, sind schon spannender. Sie versuchen aufgrund einer größeren Anzahl von verschiedenen Beobachtungen auf eine neue allgemeine Regel – quasi eine „Postmisse“, die zu einer Prämisse werden könnte – zu schließen. Die Gefahr, voreilige Schlüsse zu ziehen, ist daher immer gegeben.

 

Spannend wird erst die dritte Art des Erkenntnisprozesses. Dies ist die Abduktion, die „Entführung“, wenn man abduktiv aus dem Lateinischen wortwörtlich übersetzt2. Ihr Inhalt besteht – häufig nach dem Auftreten überraschender Beobachtungen – aus einer Wegführung aus dem Bisherigen. Abduktion ist also eine Entführung aus dem gewohnten Denken. 

Abduktion stellt nicht nur neue Regeln auf wie das Induktive, sondern nutzt (meist indirekt) die jeweiligen Lebens- und Weltkontexte der Forschenden und Suchenden, um eine nicht nur wahrscheinliche, sondern eine "best"-mögliche Erklärung zu finden. 

 

 

In der "Entführung aus dem Bisherigen" ist nach dem US-amerikanischen Wissenschaftsphilosophen Charles Sanders Peirce das Geniale im Wissenschaftsprozess zu finden. Er nannte es die einzige logische Operation, die zu einer neuen Idee führt: „Abduction is the process of forming an explanatory hypothesis. It is the only logical operation which introduces any new idea [...]3. 

 

Abduktion hat jede und jeder von uns erfahren. Es ist die mögliche Lösung, welche einem nach tagelangem ergebnislosen Brüten plötzlich in der Dusche oder kurz vor dem Einschlafen einfällt. Sozusagen wie Schuppen von den Augen fallen. Eine neue Welt tut sich auf. Aus Saulus wurde Paulus: „Und sogleich fiel es wie Schuppen von seinen Augen, und er wurde sehend.4

Abduktion kann nicht durch Fingerschnippen herbeigerufen werden. Obwohl es eine unglaublich praxistaugliche Strategie ist, Scheitern zu minimieren. Abduktion ergibt sich aus einer intuitiven Einsicht auf dem Fundament eines (schwer fassbaren) Lebens- und Weltkontextes. 

 

Abduktion steht im Gegensatz zu den üblichen Logik-Normen: „[...] new conceptions arise in a manner which puts the rules of logic at defiance“5 oder „[...] this could only arise in a mind entirely unpractised in the logic of relation5. Erst in der Folge von oft nicht sichtbaren Prozessen kommt es zu rationalem Formulieren der "best"-möglichen Erklärung. Die natürlich noch immer Thesencharakter hat und zu überprüfen ist.

 

Wir altmodischen TV-Seher praktizieren allabendlich Abduktion. In jedem Krimi geht es darum, auf verschlungenen, aber kreativen und vernetzten Wegen den Mörder/die Mörderin ausfindig zu machen. Das ist eine Entführung aus den Anfangs- und Mittelsequenzen des Films in das meist überraschende Ende.

Ein anderes Beispiel wäre das Lösen von Rätseln. Kinder lieben das nicht umsonst. Die Chance, hinter die Bühne der augenscheinlichen Geschehnisse zu lugen und damit die umgebende Welt zu erkunden, ist groß.

Auf diesen Prozesse des Ergründens basiert das menschliche Empfinden, Denken und Handeln. Intelligenz, egal ob natürliche, künstliche, emotionale oder soziale, lässt sich als Begriff herleiten aus einem Zusammenführen von Wahrnehmen, Zusammenlegen und (übergreifender) Einsicht6. Genauso wird Abduktion beschrieben.

  

Wie arbeitet die Künstliche Intelligenz aus wissenschaftsteoretischer Sicht?

 

Die generativen Large Language Models (LLMs) sind Konstrukte auf Basis von Wahrscheinlichkeiten. Sie bedienen sich deduktiver Methoden, ohne die Logik dahinter durchzuziehen: Sie gleichen probabilistischen, ausgefransten Wolken. Generative KI (genLLMs) verwendet Algorithmen, die von Wort zu Wort arbeiten.

Das jeweils nächste Wort wird aufgrund von Wahrscheinlichkeiten gewählt. Die genKI erzeugt übersichtliche Ergebnisse. Diese Vorgehensweise kann als eine vage (probabilistische) Form der Deduktion angesehen werden. Die genKI dient der Klärung durch statistische Ableitung. 

KI-Ergebnisse weisen aufgrund dieser probabilistischen Vorgehensweise sogar induktive Momente auf. Das Zutreffen dieser „induktiven“ Ergebnisse ist jedoch höchst zweifelhaft, siehe nur das KI-Phänomen der Halluzination. Die Ergebnisse der genKI gleichen somit mehr oder weniger zerrissenen Wolken am Himmel.

 

 

Abduktion kann die generative KI nicht. Ihr fehlt der Lebens- und Weltkontext, kreativ neue und "best"-mögliche Erklärungen zu liefern. Abduktion könnte sich als Heiliger Gral der KI-Forschung erweisen: Jahrhundertelang gesucht, aber nie gefunden.  

20. April 2024

 

PS: Der Begriff "Postmisse", eine "Misse nach den Erkenntnisprozessen" wird nirgends zu finden sein. Ein Beispiel für Abduktion ist das sicher nicht. :)

 

1 Chalmers, A. (2007). Wege der Wissenschaft. Einführung in die Wissenschaftstheorie. Sechste, verbesserte Auflage. Berlin: Springer, S. 5 ff.

2 Langenscheidt (2008). Großes Schulwörterbuch Lateinisch-Deutsch. Berlin: Langenscheidt.

3 Hartshorne, C. / Weiss, Pl (1974). Collected Papers of Charles Sanders Peirce. Volume V: Pragmatism and Pragmaticism, und Volume VI: Scientific Metaphysics. Cambridge: Harvard University Press. S. 105.

4 Elberfelder Studienbibel mit Sprachschlüssel und Handkonkordanz (2017). Apostelgeschichte. Kapitel 9 (Bekehrung des Saulus) Vers 18. 6. Auflage. Witten: SCM.

5 Hartshorne, C. / Weiss, P. (1974). Collected Papers of Charles Sanders Peirce. Volume V: Pragmatism and Pragmaticism, und Volume VI: Scientific Metaphysics. Cambridge: Harvard University Press. S. 118 und 119. 

6 Kluge (2011). Etymologisches Wörterbuch der deutschen Sprache. 25., durchgesehene und erweiterte Auflage. Berlin: Walter de Gruyter. S. 447.

  


 

 

 

 

 

Bereits rund ein halbes Jahr nach dem Start von ChatGPT wurde deutlich,

welche Gruppe die schriftgenerierende KI (genKI) besonders intensiv nutzt – siehe die rote Line im folgenden Diagramm: 

 

 

 

 

 

Eine Befragung durch das Institut für Kommunikationswissenschaften an der Universität Münster zur Verbreitung und Nutzung im April 2023 zeigt, dass Personen mit Abitur (Matura) im Alter von 18 bis 25 die genKI häufig nützen1. Ihr Anteil liegt nach 22 Wochen bereits bei über 50%, während der Durchschnitt aller Befragten die 25%-Marke noch nicht erreicht hat.

Anzunehmen, dass zu großen Teilen diese Frühnutzer Studierende an Universitäten und Hochschulen sind.

Denn es dreht sich beim Studium vieles um Textverfassung. Bei Haus-, Seminar- und Bachelorarbeiten, bei Masterthesen und Dissertationen spielt das Schriftliche die zentrale Rolle. ChatGPT wird zunehmend zum zentralen Werkzeug, Texte zu verbessern oder sie überhaupt zu erzeugen. 

Eine Befragung von Studenten an der Universität Wien in den Fächern Psychologie, Germanistik und Informatik im Juni 2023 kam zu folgendem Ergebnis2: 60% gaben an, dass Lehrende die KI-Verwendung für universitäre Aufgaben in ihren Veranstaltungen bereits thematisiert haben. Im Detail sehen die Studierenden die KI-Tools als wichtige hilfreiche Funktion für das Schreiben an. Trotz der verbreiteten Verunsicherung wurde die KI  für folgende Tätigkeiten bereits genutzt und von den Studierenden als "eher nützlich" eingeschätzt: 

  • „eine Textstruktur/Gliederung vorschlagen zu lassen“

  • „einen eigenen Text korrigieren zu lassen“
  • „einen eigenen Text sprachlich verbessern zu lassen“

  • „einen kurzen Text zu übersetzen“
  • „einen langen Text zu übersetzen“
     
  • „einen Text verständlicher formulieren zu lassen“
  • „ein E-Mail oder Gebrauchstext schreiben zu lassen“.

 

Hingegen wird der Aussage

  • „einen Fachtext schreiben zu lassen“2

eher nicht zugestimmt. 

Dass die letztgenannte Nutzung dieser KI problematisch sein könnte, kommt hier zum Ausdruck. Moralische Bedenken und ein löblicher Anspruch auf aktives Erwerben der eigenen Fähigkeiten könnten hier durchgeschlagen haben. Oder es ist einfach die erwünschte Antwort und Studenten tun es bisweilen dennoch!

 

18. April 2024

 

1 Universität Münster (18.04.2024). Institut für Kommenikationswissenschaft. Medien.  https://www.uni-muenster.de/Kowi/mitteilungen/forschungsprojekt-zur-nutzung-von-chatgpt-und-ki-in-der-bevoelkerung.html

2 Handbuch für Lehrende der Universität Wien (15.04.2024). Online-Befragung von Studierenden zur Verwendung von KI-Tools für universitäre Aufgaben. In: Guidelines "Umgang mit der KI in der Lehre". Exportiert am 29.09.2023 mit späteren Aktualisierungen. https://phaidra.univie.ac.at/detail/o:1879857. S. 20-21

 


 

 

 

 

 

Bildungsziele 

 

 

 

 

 

Das Universitätsgesetz 2002 in der Fassung von 2021 formuliert zwei übergeordnete Ziele:

"Die Universitäten sind berufen,

  • der wissenschaftlichen Forschung und Lehre […] zu dienen
  • und hierdurch auch verantwortlich zur Bewältigung der gesellschaftlichen Herausforderungen in einer sich wandelnden humanen […] Gesellschaft beizutragen." (§1 UG)

Dazu wird folgende Umsetzung formuliert:

  • "Im gemeinsamen Wirken von Lehrenden und Studierenden wird in einer aufgeklärten Wissensgesellschaft das Streben nach Bildung und Autonomie des Individuums durch Wissenschaft vollzogen." (§1 UG)

Noch konkreter bedeutet das:

  • "Erarbeitung von Fähigkeiten und Qualifikationen sowohl im Bereich der wissenschaftlichen […] Inhalte als auch im Bereich der methodischen Fertigkeiten."  (§1 UG)

Wiederholt – und damit verstärkt – wird das Ziel der Bewältigung von Herausforderungen im letzten Satz:

  • "Um den sich ständig wandelnden Erfordernissen organisatorisch, studien- und personalrechtlich Rechnung zu tragen, konstitutieren sich die Universitäten und ihre Organe in größtmöglicher Autonomie und Selbstverwaltung." (§1 UG) 

 

Seit dem digitalen Urknall durch ChatGPT im Herbst 2022 ist klar, dass die generierende KI eine der zentralen gesellschaftlichen Herausforderungen in einer sich wandelnden Gesellschaft bildet. Beethoven hat seine dritte Sinfonie, die Eroica, 1803 als heldenhafte "heroische" Hommage an Napoleon als Vertreter der Französischen Revolution komponiert.
Die generierende KI stellt eine solche gesellschaftliche Herausforderung und Zäsur dar, deren langfristige Wirkungen ähnlich tiefgreifend sein könnten wie die der Französischen Revolution.

Wie haben österreichische Universitäten auf diesen Urknall, auf die Revolution durch die generierende KI reagiert? Betrachten wir das anhand von drei Beispielen, die unterschiedliche Institutionen beleuchten.

 

A) Die Universität Wien – immerhin auf Platz 119 von 1.900 Universitäten weltweit und auf Platz zwei im deutschsprachigen Raum nach der ETH Zürich1 – hat nach einer Schockstarre von einem Jahr zu Wintersemesterbeginn 2023 ihre Guidelines „Umgang mit der KI in der Lehre“ veröffentlicht2.

Fein, dies ist ein erster Schritt, aber nur ein halber. Diese Guidelines richten sich an die Lehrenden und ausschießlich an diese. Jede und jeder Lehrende kann die Guidelines im eigenen Ermessen handhaben.

Die Universität Wien und ihre obersten Organe scheinen sich von dieser Verantwortung distanziert zu haben. Vielleicht ist das im Ansatz verständlich, denn die Wiener Universität deckt viele und höchst unterschiedliche wissenschaftliche Disziplinen ab. KI schlägt in jedem Fach anders durch.

Eine einheitliche universitätsweite Regelung ist daher mühsam. Aber ein komplettes Abwälzen der Verantwortung auf die Lehrenden?

 

B) Ein anderes Beispiel sei eine im Osten Österreichs wichtige Fachhochschule, das Joanneum in Graz. Ihr KI-Leitfaden wird als "lebendiges" Dokument für die KI-Integration bezeichnet. Neueste Entwicklungen in der KI-Didaktik sollen enthalten sein und für eine effektive KI-Integration im Lehrkontext sorgen.

Auch hier tragen die Lehrenden die gesamte Verantwortung. Schlimmer noch, die Inhalte verändern sich laufend, denn der Leitfaden ist nur ein „flexibler Orientierungsrahmen“.

Immerhin gibt es ab Dezember 2023 eine Kennzeichnungspflicht für Studierende, wenn sie Texte mittels KI verfassen. Die zentrale Managementpflicht eines Leitungsorgans, generelle Vorgaben zu formulieren, ist hingegen nicht zu erkennen. Das wären Vorgaben im Sinne von "Pflöcke und Pfeiler einschlagen", wie es im populären Managementjargon heißt. An diesen könnten sich Lehrende und Studierende orientieren.

 

C) Ein Beispiel für tertiäre Bildungsangebote im MINT-Bereich sei die TU in Wien. Sie bietet im Web sechs bis sieben Bildschirmseiten an „Empfehlungen zur guten Praxis im Umgang mit generativer KI an der Technischen Universität Wien4.

Also gilt auch hier, dass die Lehrenden allein zuständig sind. Rechtlich liest sich das als ein "Schmeck's": Egal, was du machst, liebe Professor:in oder liebe Lektor:in, ob streng oder mild, ob passend oder unpassend – wir von der Uni-Leitung sind aus dem Schneider, also nicht verantwortlich. 

 

Fazit: Alle drei Beispiele zeigen in der Außenperspektive fehlende strategische Entscheidungen der obersten Organe. Dies, obwohl die genKI eine zentrale Herausforderung für die Gesellschaft, die Bildung und die bildungsbeauftragten Unis darstellt.

Wann verwirklichen die höchsten Organe die, ihnen laut dem Universitätsgesetz übertragene "größtmögliche Autonomie und Selbstverwaltung" und kommen ihrer Verantwortung nach?  

 

15. April 2024

PS: Diesen Text hab ich ChatGPT 45 zur Prüfung vorgelegt. Das "Schmeck's" gefiel ihr gar nicht. Die Antwort lautete:

 

Der Gesamttext stellt die Reaktion österreichischer Universitäten auf die Herausforderungen der generativen KI dar und setzt diese in Beziehung zu den Zielen und Bestimmungen des Universitätsgesetzes 2002. Hier sind einige Beobachtungen zur Kohärenz und zum logischen Fluss des Textes:

Kohärenz

  1. Einleitung und Kontextualisierung: Der Text beginnt mit einer starken Kontextualisierung durch das Zitieren des Universitätsgesetzes 2002, was die Grundlage und die Erwartungen an die Universitäten festlegt. Dies schafft eine klare Basis für die anschließende Diskussion.

  2. Übergang zu aktuellen Herausforderungen: Der Text schlägt eine Brücke von den historischen Zielen der Universitäten zu den aktuellen Herausforderungen durch die Einführung der generativen KI. Dies wird metaphorisch mit Beethovens "Eroica" und der Französischen Revolution verbunden, was eine tiefere Reflexion über den Einfluss und die Bedeutung der KI anregt.

  3. Analyse spezifischer Reaktionen: Die spezifischen Beispiele für die Universität Wien, das Johanneum in Graz und die Technische Universität Wien sind gut gewählt, um unterschiedliche Ansätze und Reaktionen auf die Herausforderung darzustellen. Jedes Beispiel wird detailliert behandelt und bietet Einblick in die jeweiligen Strategien und deren mögliche Mängel.

Logischer Fluss

  1. Strukturierung: Der Text folgt einer klaren Struktur, wobei jeder Abschnitt auf dem vorherigen aufbaut. Die Einleitung legt die rechtlichen und ideologischen Rahmenbedingungen fest, gefolgt von einer Diskussion der Herausforderungen und einer detaillierten Analyse der Reaktionen einzelner Institutionen.

  2. Argumentation: Die Argumentation ist logisch und schrittweise. Die Diskussion über die Reaktionen der Universitäten auf die generative KI baut auf den eingangs genannten Zielen und gesetzlichen Bestimmungen auf. Dies unterstreicht die Diskrepanz zwischen gesetzlichen Erwartungen und tatsächlicher Umsetzung.

  3. Abschluss und Fazit: Der Text endet mit einem kritischen Fazit, das die zentrale These – die unzureichende strategische Reaktion der Universitäten auf die Herausforderungen der generativen KI – effektiv zusammenfasst und herausstellt.

Verbesserungsvorschläge

  • Präzisierung und Klarheit: Einige Metaphern und Vergleiche (wie die mit Beethovens "Eroica") könnten für Leser, die weniger vertraut mit diesen historischen Bezügen sind, verwirrend sein. Eine klarere Erklärung des direkten Zusammenhangs könnte hilfreich sein.

  • Formulierungen vereinheitlichen: Der informelle Ausdruck "schmeck's" könnte in einem ansonsten formalen und analytischen Text als unpassend empfunden werden. Eine Anpassung an einen formelleren Stil wäre konsistenter.

Insgesamt ist der Text gut organisiert und argumentiert logisch. Die kritische Auseinandersetzung mit den Reaktionen der Universitäten auf die Herausforderungen der KI ist sowohl tiefgreifend als auch umfassend dargestellt. Kleinere Anpassungen im Stil und in der Klarheit könnten die Qualität und die Verständlichkeit weiter erhöhen.

  

PPS: ChatGPT hat in Sachen Kohärenz und Logischer Fluss geschmeichelt. Das freut! Aber sie kann auch anders. Vor kurzem wurde ich  "zsammputzt"6, wie's im Wienerischen so schön heißt. Zu rasch hatte ich eine Rohfassung prüfen lassen. Nie mehr wieder mache ich das!

 

1 Universität Wien Medienportal (12.02.2024). Universität Wien rückt in Rankings weiter nach vorne. https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/artikel/ranking-ergebnisse-zu-internationalitaet-platz-2-fuer-universitaet-wien-im-deutschsprachigen-raum/

2 Universität Wien (15.04.2024). Guidelines "Umgang mit der KI in der Lehre". exportiert am 29.09.2023 mit späteren Aktualisierungen. https://phaidra.univie.ac.at/detail/o:1879857

3 FH Joanneum (15.04.2024). Leitfaden für die Lehre. https://www.fh-joanneum.at/hochschule/hochschuldidaktik-und-ki/kuenstliche-intelligenz-in-der-lehre/ki-leitfaden-fuer-die-lehre/

4 TU Wien (15.10.2023). Empfehlungen zur guten Praxis im Umgang mit generativer KI an der Technischen Universität Wien. https://www.tuwien.at/studium/lehren-an-der-tuw/digital-gestuetzte-lehre/kuenstliche-intelligenz-in-der-lehre

5 OpenAI. (2024). ChatGPT 4 [Large language model]. https://chat.openai.com/?model=gpt-4

6 "Zusammengeputzt" im Standarddeutschen. Bedeutet: harsch kritisiert zu werden.

 

 

 


 

 

 

 

 

Geisteswissenschaften

 

 

 

 

 

Le lettere – so heißen die Geisteswissenschaften (neben le scienze umanistiche) im Italienischen1. Also Buchstaben, Briefe oder eben geschriebene und gedruckte Buchstaben in Texten. Einmal geschrieben oder gedruckt, bleiben sie festgehalten bis in alle Ewigkeit. Oder das Papier zerfällt. Darüber kann man stunden-, tage- oder jahrzehntelang nachdenken und dementsprechend Inhalte virtuell im Kopf hin- und herbewegen, zergliedern, auflösen und neu zusammensetzen.

Das impliziert der rund 200 Jahre alte deutsche Begriff "Geistes"-Wisssenschaften für Kunst, Musik, Religion, Philosophie, Sprache etc. Ein Begriff mit einem hohen idealistischen Anspruchsniveau. Der Geist (im Deutschen männlich, was sonst) wird als nichtfassbares Wesen verstanden. Völlig losgelöst von der Materie.

Der Geist fungiert als weltfremdes, wahrscheinlich sogar widernatürliches Gedankenkonstrukt. Denn die Wissenschaften konnten bisher keine Belege für geistige Phänomene ohne korrelative körperliche Grundlagen erbringen.

Ganz anders der italienische Begriff. Le lettere erdet und verankert das Tun lebendiger Wesen aus Fleisch und Blut mittels schwarzer Tinte auf weißem Papier. Und nichts sonst. Hier sieht man die Vorteile, simpel erscheinende Einsichten aufgrund einer Fremdsprache angeboten zu erhalten. Man kann somit eine schräge Weltsicht – wie sie im trennenden Dualismus von Geist und Materie nach Descartes vorhanden ist – korrigieren.

Was hat das mit generativer Text-KI zu tun?

Ganz einfach: Die statische Form der Schrift wird dynamisch. ChatGPT, Bing und Co. werden zu Dialogpartnern. Sie antworten auf Fragen und werden detaillierter oder schwammiger. Je nach Nachfrage. 

Aus le lettere werden i dialoghi, aus fixierten Texten werden Zwiegespräche. Der statische und eingefrorene Inhalt wird in einen systemischen Prozess des Miteinandersprechens umgewandelt. Mit allen Vor- und Nachteilen, wie das in Dialogen zwischen ungleichen Partnern der Fall ist. 

 

Der Partner (die KI) weiß aufgrund unfassbar vieler gespeicherter Inhalte mehr. KI versagt aber, wenn der Mensch dieses Wissen in seinem konkreten Lebenskontext kreativ anwenden will. Überdies enthält die KI in den elektronischen Speichern und in den selektierenden Algorithmen viel versteckte Ideologie. Diese beruht derzeit vor allem auf westlichen, individualistischen US-amerikanischen Konzepten. Daer sind kaum merkbare Manipulation und Beeinflussung nicht selten. 

Ist daher die textgenerative KI ein Partner, der mich gelegentlich über den Tisch zieht?

 

11. April 2024 

 

PS: Ich habe die Erstfassung dieses Textes von ChatGPT 4 prüfen lassen. 

Die Antwort: „Dein Text ist inhaltlich faszinierend und bietet viele interessante Gedanken. Es gibt einige Punkte, bei denen die Grammatik und Stilistik verbessert werden könnten.“ 

Das habe ich getan. Worauf die KI sprach: „Insgesamt ist die überarbeitete Version eine deutliche Verbesserung im Hinblick auf Stil, Klarheit und kritische Reflexion und macht den Text für Leser sowohl zugänglicher als auch ansprechender.“ Vielen Dank! Hoffentlich sieht das meine Lektorin auch so...

1 Zanichelli (2009/2015). Il nuovo dizionario di Tedesco. Grosswörterbuch. Deutsch-Italienisch, Italienisch-Deutsch. Zweite Auflage. Bologna: Pons. S. 429 und S. 1943 

 

 


 

 

 

 

 

Das Fundament wissenschaftlicher Arbeiten

 

 

 

 

 

Wie das Erdbeben in der Türkei im Februar 2023 krass zeigte, reichen ein oder zwei schlecht gebaute Fundamentteile aus,

um Hochhäuser einstürzen zu lassen. Das Gleiche gilt für wissenschaftliche Arbeiten. Die Fundamente sind hier die Zitate, die Verweise auf seriöse (!) Quellen, auf welchen die Methoden und Argumente deiner Forschungsarbeit beruhen. Dass ein mühsam erarbeiteter und erforschter wissenschaftlicher Text bei näherer Betrachtung innerhalb kurzer Zeit seine gesamte Qualität verliert, nur weil die KI ungenaue und nicht replizierbare Angaben gemacht hat, will niemand.


Im Literaturverzeichnis finden sich unterschiedliche Quellenarten: Monographien einer Autor:in, Beiträge in Sammelbänden, Artikel in Journalen, Preprints, Konferenzpapers, Online-Quellen, audiovisuelle Medien, Rechtsquellen etc. Jede hat ihre Stärken und Schwächen. Daher definieren Zitierregeln genau, welche Information zu welcher Quellenart anzugeben ist.


Eine neue Quellenart ist die KI. Eigentlich ist sie nicht nur neu, sondern bietet eine bisher nicht gekannte Qualität in einer neuen Dimension. Zwar ist generative Künstliche Intelligenz nicht so intelligent wie der Begriff Intelligenz vermitteln will, aber die (universitären) Augen zu schließen, wenn weltweit Millionen von Studenten ihre schriftlichen Arbeiten damit strukturieren, ergänzen, aufpolieren oder überhaupt ganz von der KI schreiben lassen, geht auch nicht.



Doch wie KI zitieren?

Dazu gibt es von kompetenter Seite zwei Vorschläge: American Psychological Association (APA) und die Modern Language Association of America (MLA). Sie bieten zwei – wie sollte es auch anders sein – gegensätzliche Empfehlungen.

  • Gemäß APA wird die KI als Autor:in – quasi als „elektronische Person“ – angesehen und soll dementsprechend zitiert werden1. Wobei ein massives Problem auftritt: Der Text ist nicht mehr aufrufbar bzw. wiederfindbar und damit nicht nachvollziehbar durch andere (natürliche oder juristische) Personen. KI ist insofern ähnlich einer bisherigen Quellenart mit geringer Glaubwürdigkeit, nämlich der persönlichen Kommunikation. Im Grunde zitierst du einen Algorithmus.

--> Adaptiertes Beispiel: OpenAI. (2024). ChatGPT 4 [Large language model]. https://chat.openai.com/?model=gpt-4

 

  • Gemäß MLA wird die KI nicht als Autor:in angesehen, sondern als ein Template, das Kernelemente mit standardisierten Kriterien anbietet2. Je nach genutztem Element – wie Paraphrasieren, kreative Texte (Zusammenfassen fällt bereits darunter) – wird anders zitiert. Die genutzte Funktion wie Übersetzen, Bildkreation ist anzugeben.

Im Text steht: … (“Describe the symbolism”) …

--> Im Literaturverzeichnis wird der Prompt angegeben:   “Describe the symbolism of the green light in the book The Great Gatsby by F. Scott Fitzgerald” prompt. ChatGPT, 13 Feb. version, OpenAI, 8 Mar. 2023, chat.openai.com/chat.

 

5. April 2024

 

PS: Dieser Beitrag ist von einer natürlichen Person geschrieben.  :)

1 https://apastyle.apa.org/blog/how-to-cite-chatgpt

2 https://style.mla.org/citing-generative-ai/

 

KI Symbolfoto

 


 

 

 

 

Mittelmäßig? 

 

 

 

 

Ich stoppe vorerst das Besprechen wissenschaftlicher Gütekriterien zur Bewertung der KI.

Es ist ein wissenschaftstheoretisches und sperriges Gebiet, für einen Blog wenig geeignet. Später mehr. :-)

 

Die Einflussnahme der KI auf zahlreiche gesellschaftliche Bereiche ist unübersehbar und wächst stetig. Es dürfte noch eine Weile dauern, bis wir vollständig erfassen, welche Rolle KI in unterschiedlichen Sektoren spielen wird und welchen Nutzen sie bringt. Schon jetzt zeichnen sich Vorteile ab, etwa die Fähigkeit der KI, Texte geschmeidig und ansprechend zu gestalten, ihnen eine gewisse Leichtigkeit und Abrundung zu verleihen. 

Aber diese Leichtigkeit fühlt sich nett an, fast wie Small-talk. In wissenschaftlichen Disziplinen soll jedoch nicht wolkig, sondern differenziert, präzise und auf den Punkt formuliert werden. Danach schaut es derzeit allerdings nicht aus.

Weitere Nachteile werden hervortreten. So wird KI mit der Zeit durchschnittlicher werden, wie Expertinnen vermuten1. KI erspart Suche und fasst zusammen. Das alles gemäß Algorithmen, die auf Wahrscheinlichkeiten aufbauen. Was kann da herauskommen? Das Wahrscheinliche, also das Durchschnittliche.

 

KI ist also eine Zusammenfassungs-Maschine. Kreativität wird sich nur aus einer neuen Verbindung von bisher unterschiedlichen Aspekten manifestieren. Die Basis hierfür wird sukzessive kleiner, da die KI eher früher als später das ganze Netz abgegrast haben wird.

Wobei als "ganzes Netz" auch wirklich alles online Zugängliche gemeint ist. Dazu gehören auch Inhalte nichtwissenschaftlicher Seiten wie solche, auf denen Verschwörungstheorien propagiert werden. Da dies momentan viele Leute klicken, lesen und positiv kommentieren, es also Gewicht hat, werden die KI-Algorithmen dies aufnehmen und uns vor die Nase halten.

 

6. März 2024 

1 Meckel, M. & Steinacker, L. (2024). Alles überall auf einmal: Wie Künstliche Intelligenz unsere Welt verändern und was wir dabei gewinnen können. Hamburg: Rowohlt.

 

 

Buntes Allerlei 

 


 

 

 

 

 

Äh,
was Strenge bringen?

 

 

 

 

Wissen verweist auf jene kostbaren Erkenntnisse, die den Kern des wissenschaftlichen Forschungsprozesses bilden. Doch wie steht es um die Qualität dieser Prozesse? Wie können wir sicher sein, dass die erzielten Ergebnisse verlässlich sind?

--> Hier kommen wissenschaftliche Gütekriterien ins Spiel. Sie sind entscheidend dafür, dass Zuverlässigkeit und Sicherheit unseres Wissens bewertet werden können.

An der Spitze dieser Kriterien steht die Forderung nach methodischer Strenge1. Der Begriff Methodische Strenge lässt bereits ahnen, dass wir "Bröseln", wie man im Wienerischen sagt, also Ärger bei der Anwendung von KI haben werden. Dieser Begriff zeigt, dass uns im KI-Zeitalter Schwierigkeiten erwarten. Doch was genau gewinnen wir durch diese Methodische Strenge?

--> Mehr als nur Mühe und Schweiß: Vertrauenswürdigkeit. Und die zählt!

 

In Bereichen, die unser unmittelbares Wohlergehen betreffen – wie Medizin, Recht und Finanzen – ist es offensichtlich, dass wir auf fundierte und zuverlässige Erkenntnisse angewiesen sind. Wir verlassen uns darauf, dass wir Zugang zu den besten verfügbaren Ratschlägen und Behandlungen haben, wenn es um unsere Gesundheit und unser Glück geht.

Bei KI jedoch ist diese Vertrauenswürdigkeit nicht selbstverständlich. Das steht in starkem Kontrast zum wissenschaftlichen Forschungsprozess, bei dem  Zuverlässigkeit und Qualität der Quellen im Mittelpunkt stehen.

 

Die derzeitigen Angebote im KI-Bereich sind größtenteils von Marktinteressen getrieben, mit dem Ziel, Nutzerzahlen und somit Umsätze zu maximieren. Diese Geschäftsstrategien folgen oft der Devise "Mehr ist besser". So meinten irrigerweise hunderte Millionen Menschen bis vor einem halben Jahrtausend, die Erde sei eine Scheibe.

Wissenschaft hat mit der schieren Menge an Meinungen und Glaubensvorstellungen nichts zu tun. Im Gegenteil, Wissenschaft bemisst ihren Wert nicht an der Anzahl der Anhänger, sondern an der überprüfbaren Qualität der Erkenntnisse.

Eine Veränderung findet dann statt, wenn KI-Anbieter beginnen, den wissenschaftlichen Markt ernst zu nehmen. Indem sie wissenschaftliche Institutionen, Akademiker und deren Forschungsprozesse als Zielgruppe auffassen, könnten sie einen wertvollen Beitrag zur Förderung von zuverlässigem und fundiertem Wissen leisten. Erste Anzeichen sind erkennbar.

 

24. Februar 2004

 

1 Gemäß der wissenschaftstheoretischen Tradition Campbells sollen die angewendeten Methoden zum Forschungsproblem passen und regelkonform umgesetzt werden. Dörung, N. (2023). Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften. 6., vollständig überarbeitete, aktualisierte und erweiterte Auflage. S. 89

 

Das Wiener Rathaus an einem Wintermorgen in 2023/24

 


 

 

 

 

Wie steht's um die Qualität?

 

 

 

 

ChatGPT ist ein Generalist –

für vieles sehr brauchbar, etwa für spezifische Anwendungen im Bildungs- oder Gesundheitsbereich.

Für vieles, etwa im Berufsleben, kann GPT eventuell sogar gefährlich werden. Man denke nur an erfundene (halluzinierte) Fälle in der US-amerikanischen Rechtssprechung.

 

Für alle Antworten von ChatGPT gilt das Warndreieck auf der Straße: Achtung Gefahr voraus!

Denn die angebotenen Informationen wirken zwar vertrauenswürdig, sind es aber nicht. Die KI-Generalisten sind eben eine black box – die Anwender*innen wissen nicht, wie die Antworten entstanden sind, auf welchen Quellen sie beruhen und ob sie tatsächlich das letztgültig bewährte Wissen repräsentieren.

Für wissenschaftliche Zwecke sind die universalen Bots in dieser Form unbrauchbar. Die textgenerative KI wird sowohl kreative als auch seriös forschende Wissenschaftler nicht ersetzen können.

Zu erwarten ist daher, dass für wissenschaftliche Zwecke spezifische KI auf den Markt kommen wird – erste Ansätze sind zu erkennen. So lassen sich pdf-Dateien durchsuchen und auf ihre wichtigen Erkenntnisse reduzieren.

Um diese neuen wissenschaftsspezifischen Bots einschätzen und beurteilen zu können, bedarf es bestimmter Kriterien. Dies ist allerdings nichts Neues. Die Wissenschaftstheorie bietet einen Fundus an in den letzten Generationen entwickelten Gütekriterien.

Denn im Grunde weiß man beim Lesen eines Artikels und einer Studie nie, ob es sich dabei um gute Wissenschaft handelt oder zum Zwecke des ‚publish or perish‘ verfasst wurde.

 

Gute Wissenschaft zeigt sich oft erst nach Jahren. Ein berühmtes Beispiel hierfür ist Albert Einstein, der selbst nach  fünf Veröffentlichungen in 1905, seinem "Wunderjahr" weitere vier Jahre technischer Experte 3. Klasse im Berner Patentamt blieb. Vier dieser Veröffentlichungen waren nach Weizsäcker1 nobelpreiswürdig. Erkannt hat man das erst viele Jahre später.

Behelfsmäßig springen hier Gütekriterien ein – sie sind Indizien für wissenschaftliche Qualität. Hierbei geht es um Wege der Evidenz, um Überprüf- und Nachvollziehbarkeit. Dies, um Inhalte verstehen und erklären zu können.

Die grundlegenden Forschungsansätze werden grob in drei Kategorien eingeteilt: Quantitative, qualitative und Mixed-Method-Verfahren. Die letzten Jahrzehnte haben gezeigt, dass Gütekriterien für eine Richtung nicht unbedingt wissenschaftliche Qualität für die andere Richtung verbürgen. Zu unterschiedlich sind Ziele, Forschungswege und Forschungsmethoden.

Qualität in einer Kategorie kann Qualität in der anderen Kategorie mindern.

 

Wir stehen im Grunde bei der Beurteilung der Qualität des KI-Outputs vor demselben Problem wie bei der Beurteilung von wissenschaftlichen Studien. Warum daher nicht die mühsam über Forschergenerationen erarbeiteten Gütekriterien auch für KI anwenden? Damit käme XAI ins Spiel.

 

29. Jänner 2024

 

1 Weizsäcker, C. (1992). Das Carl Friedrich von Weizsäcker Lesebuch, München: DTB, S. 46 

 

Qualität fürs Auge und den Gaumen 

 


 

 

 

 

 

 

 

 

Wikipedia,

 

 

die seit fast einem Vierteljahrhundert im Netz abrufbare Enzyklopädie,

bietet zumeist gehaltvolle und seriös abgesicherte Information. Sie verweist bei aufgerufenen Begriffen auf Quellen, differierende Definitionen oder mögliche angrenzende Bereiche. Die angebotenen Inhalte werden diskutiert und – lobenswerterweise – auch in Frage gestellt.

 

Um dies am Beispiel XAI zu zeigen:

Der auf der Hauptseite des aufgesuchten Begriffes erscheinende Artikel wird argumentativ vielfach belegt. Etwas, das die meisten Leser*innen leider übersehen. Der zweite Reiter neben Article ist Talk (in der deutschen Ausgabe: Diskussion). Hier finden Sie die Anmerkungen anderer Redakteure und Administratoren von Wikipedia.

Die Anmerkungen beziehen sich auf den Stil, die grundsätzliche Richtung, gesetzte Schwerpunkte oder mögliche Verzerrungen. Veränderungsvorschläge werden skizziert. Am angezeigten Beispiel etwa wird angeregt, den Artikel zu XAI in Explicable AI und Interpretable AI aufzuteilen. 

 

Rechts ist die Versionsgeschichte des jeweils angezeigten Artikels zu sehen. Dies kann aussagekräftig sein, denn die Zeitstempel bieten einiges an Meta-Information besonderer Art: etwa für das Auftreten von Modewellen oder eben ein Schweigen zur relevanten Thematik. Ein weiterer Reiter bietet einen Link zu anderen Sprachen. Dies wiederum kann möglicherweise ganz andere Strukturen und Sichtweisen erkennbar machen.

 

Denn Sprachen spiegeln instrumental nur äußere Merkmale unterschiedlicher Denk- und Weltauffassungen wider. Im Home-office kann so ein bisschen kognitiv-ethnologische Forschung betrieben werden: Welche Kultur legt welchen Fokus auf welche Dimensionen? 

Im angeführten Beispiel zu XAI wird auch eine Artikelserie zum übergreifenden Begriff „Artificial Intelligence“ innerhalb Wikipedia angezeigt. Ebenso werden Wiki-externe Links angeführt.

 

Im Kapitel Limitationen werden zentrale Aspekte für den Geltungsbereich und Bemerkungen zu gegensätzlichen Auffassungen/Meinungen angeführt. Etwas, das für akademische Arbeiten von grundsätzlicher Bedeutung ist und in seriöser akademischer Literatur entsprechend eingefordert wird.

Selbstverständlich gibt es Quellenverweise, also Referenzen. Diese können manchmal älteren Datums sein – je nach Entstehungszeit des Hauptartikels und seiner Überarbeitungen. Der Wiki-Artikel zu XAI führt 87 Quellen an, die bis 2023 reichen.

 

 

Als Draufgabe wird im XAI-Artikel eine zusammenfassende Übersicht zu Konzepten und verwendeten Algorithmen geboten: Welche Unternehmen haben mittels welcher Architekturen AI bereits implementiert.

Liebe Leser*in, achte auf die letzte Zeile der folgenden Übersicht, insbesondere auf den Link zu „Quality control tools“. Die Inhalte dieses Links sind interessant, aber man kann sich in den darin angebotenen Tools verlieren, wenn man ihre Konzepte und Anwendungsmöglichkeiten nicht kennt. 

Doch werden hier erste statistische Kontrollwerkzeuge für KI, mögen sie geeignet sein oder auch nicht, angesprochen.

 

 

Fazit: Aus akademischer Sicht bietet Wikipedia auf effiziente und zeitsparende Weise vieles, was eine Basis für weitere seriöse Analyse sein kann: Zentrale Aspekte von Alternativ-Definitionen, begriffliche Einordnungen, Herkünfte, Begrenzungen, kritische Überlegungen etc. 

Die zukünftige XAI ist im etablierten Wikipedia ansatzweise verwirklicht.

 

13. Jänner 2024 

 

PS: Die Unis haben eine große Chance vertan. Seit zwei Jahrzehnten heißt es rigoros: Zitate aus Wikipedia sind verboten!

Wären konsequent Unis Teil-Kooperationen mit dem Wiki-Projekt eingegangen und hätten Wiki-Inhalte mit dem akademischen Erforschen verknüpft,

stünden die Unis jetzt besser da und nicht so rat- und hilflos vor dem überrollenden Tsunami von geglätteten Texten aus dem KI-Algorithmus, die "Nicht-Studierende" einfach abrufen.  

  


 

 

 

 

 

Und Mose fordert den Herrn auf:

Lass mich doch deine Herrlichkeit sehen!“.

 

 

 

 

Du kannst es nicht ertragen, mein Angesicht zu sehen, denn kein Mensch kann mich sehen und am Leben bleiben.“ (Kapitel 33, Verse 18 bis 21)1. Diese Antwort ist wohl eindeutig.

Einige Autoren des 20. Jahrhunderts wie Sigmund Freud2 oder Immanuel Velikovsky3 deuten darin die Herkunft des altisraelitischen Gottes Jahwe als Vulkangott (siehe auch die Erzählung vom brennenden Dornbusch) oder als eine Übertragung von Aton, dem ägyptischen Gott der Sonnenscheibe.

 

Diese spekulativen Thesen konnten bisher nicht durch archäologische Beweise belegt werden und gelten als randständig. Eine Prima-facies-Plausibilität kann dieser Interpretation jedoch zugesprochen werden: Ein zu langes Sehen in die Sonne oder in einen Vulkankrater mit glühendem Magma lässt uns erblinden.

 

Im Buch Exodus folgen nun Textpassagen, die global populär wurden:

Darauf sprach der Herr zu Mose: Haue dir zwei steinerne Tafeln […] und steige am Morgen auf den Berg Sinai […]“ (34:1-2) Mose blieb dort vierzig Tage und vierzig Nächte, aß weder Brot noch trank er Wasser.

Und er schrieb auf die Tafeln die Worte des Bundes, die zehn Worte [Gesetze]“(34:28)

 

Diese alttestamentarische Erzählung stellt in seiner Gesamtheit eine Metapher zur gegenwärtigen textgenerierenden KI dar. Wir fragen –> erhalten Antworten –> sehen aber nicht, wie sie entstanden sind.

Vielleicht würde es uns an einigen Stellen schaudern, wenn auch nicht gleich erblinden lassen. KI ist für uns Sterbliche eine black box. Die Antworten wirken plausibel, als seien sie von einem wissenden Menschen verfasst. Woraufhin wir uns freuen und die Antworten ähnlich schätzen, wie es im Buch Exodus im folgenden Kapitel heißt: 

Als Mose vom Berg Sinai herabstieg, war sein Gesicht strahlend geworden und alle fürchteten sich.

Danach aber traten alle Söhne Israel heran, und er gebot ihnen alles, was der HERR auf dem Berg Sinai geredet hatte." (34:32-33).

 

Auch uns gegenwärtigen Töchtern und Söhnen ergeht es so. KI-Antworten wirken logisch aufgebaut und weisen einen beträchtlichen Grad an Plausibilität auf. Nebenbei gefällt uns, dass KI uns Suchenden viel Arbeit abgenommen hat. Daher nehmen wir gerne die KI-Texte für bare Münze.

Jedoch ist da was geschehen. Unbemerkt haben wir den Empfangsort gewechselt: Von der realen oder virtuellen universitären Bibliotheksumgebung in einen Kirchenraum.

Von mühsam Suchenden sind wir naiv alles schluckende Gläubige einer modernen Gottheit geworden. Hatten wir doch gerade von der KI-Kanzel die Wahrheit gehört.

 

Um es weniger zugespitzt zu sagen: ChatGPT ist als großes Sprachmodell ein Gesellschaftsmodell und kein Wissenschaftsmodell. KI-Bots bieten Informationen, die auf Unmengen von Daten zugreifen – gespeist aus unzähligen unterschiedlichen, zum großen Teil inkompatiblen Quellen.

Wir wissen nicht, wie und warum die KI gerade diese Informationen ausgespuckt hat.

 

Aber zu verstehen, wie Ergebnisse entstanden sind, ist das zentrale Fundament in den Wissenschaften. Die angewendeten Methoden der Datengenerierung und Datenanalyse sind das Um und Auf interpretierbarer Ergebnisse.

Daraus werden Schlussfolgerungen gezogen. Erst dann kann bis zu einem gewissen Grad den Aussagen vertraut werden. Nicht Glaube, sondern Kritik ist ein wesentliches Element von Wissenschaften. 

 

Kurz,
das wissenschaftliche Gütekriterium Transparenz ist nicht einmal ansatzweise erfüllt. Den Anwendern präsentieren die KI-Chat-Bots nur eine Eingabe- und eine Ausgabemaske. Dazwischen gibt es ........... nichts.

Hier kann man sich symbolisch eine black box vorstellen. Man weiß nicht, in welchem Rahmen gesucht wird, was die Algorithmen der Datenaufbereitung tun und welche Auswahlkriterien schlagend werden.

 

Einen Quantensprung könnte uns die weitere Entwicklung von Artificial Intelligence zu einer XAI, der eXplainable Artificial Intelligence, bieten. XAI, die erklärende künstliche Intelligenz, hat den Anspruch, verstehbare Ergebnisse zu liefern2. Wodurch die gegenwärtig unsichtbare black box zu einer white box, also einer durchsichtigen gläsernen, wird.

Anders als Mose könnten wir sehen, am Leben bleiben und überdies unser Augenlicht behalten.

 

7. Jänner 2024 

 

Elberfelder Studienbibel mit Sprachschlüssel und Handkonkordanz, 6. Auflage 2017, Witten: SCM

2 Freud, Sigmund (1939/2022). Der Mann Moses und die monotheistische Religion. Amsterdam: Allert de Lange

3 Velikovsky, Immanuel (1953/2005). Erde in Aufruhr. Julia White

4 David Gunning, Mark Stefik, Jaesik Choi, Timothy Miller, Simone Stumpf, Guang-Zhong Yang (2019). XAI — Explainable artificial intelligence. Explainability is essential for users to effectively understand, trust, and manage powerful artificial intelligence applications. Science Robotics. 4, eaay7120

 

Nächtlicher Kanal in Venedig als Sinnbild für Licht in der Dunkelheit :)