Beitragsseiten

 

 

Wie ich KI nutze – und was mich dabei nachdenklich stimmt

 

Hallo Reinhard, 
sag mal, wie hältst du’s mit der KI?

Nun, ich nutze Chatbots. Rund 350 Millionen Menschen weltweit tun das gegenwärtig1. Besonders helfen mir die Bots, grammatikalische Fehler auszubessern, Argumente zu schärfen und den roten Faden klarer herauszuarbeiten. Dabei folge ich einer bewährten Methode – dem “Sandwich-Ansatz”:

1. Erst das Rohkonzept. Ich schreibe einen Entwurf, der einige Tage insofern auf meinem Laptop reift, als ich ihn Immer wieder modifiziere: durch neue Gedanken, andere Beispiele, schärfere Formulierungen. Am Ende enthält der Text meine wichtigsten Ideen und Argumente.

2. Dann die KI. Erst jetzt lasse ich einen Chatbot über den Entwurf ‚schauen‘. Mit präzisen Prompts (siehe frühere Beiträge im Blog) bitte ich um gezielte Verbesserungsvorschläge.

3. Schließlich die Feinarbeit. Ich prüfe die Vorschläge. Viele übernehme ich ganz oder in Teilen, einige verwerfe ich.

 

Dabei fällt mir auf: Die KI möchte oft gleich einen komplett überarbeiteten Text liefern. Sage ich “ja”, entstehen wunderbar fließende Formulierungen – angenehm wie eine warme Dusche. Der Text liest sich leicht. Vielleicht zu leicht.

Denn: Das Originelle verschwindet. Ungewöhnliche Gedanken oder schräge Beispiele werden von der KI regelmäßig gestrichen. Kein Wunder: Sie wurde mit der Vergangenheit trainiert – auf das durchschnittliche Bisherige und nicht auf das Neue. 

Und genau hier liegt die Gefahr: Die Chatbots reproduzieren, was schon da war. Innovation bewerten sie als Störung. Wenn wir uns darauf verlassen, spinnen wir – wie eine Seidenraupe – einen Kokon aus kristallklaren, aber glatten Gedanken. Und schotten uns so langsam gegen echte Neuerungen ab. 

Also baue ich urspüngliche Gedanken und Beispiele wieder ein.

28. April 2025

 

1 Statista (17.04.2025). „KI-Nutzung explodiert: 950 Millionen Menschen bis 2030.“

 

 

 


 

Prompt-Engineering VI: 

 

 

Warum die Anweisung entscheidend ist

 

KI-Tools wie ChatGPT, Perplexity, Claude, DeepSeek sind dann besonders hilfreich, wenn wir ihnen klare Aufgaben geben. Im Hochschulkontext bedeutet das: Wer mit KI arbeiten will, sollte wissen, wie ein effizienter Prompt aufgebaut ist. Eine vereinfacht Grundstruktur eines Prompts hat drei Hauptelemente:

 

1. Rolle → 2. Kontext → 3. Anweisung

 

In diesem Blogbeitrag geht es um den dritten Teil: die Anweisung.

 

Was ist die Anweisung

Die Anweisung ist jener Teil des Prompts, der der KI sagt: Tu das!

Eine präzise formulierte Anweisung sorgt dafür, dass die KI genau versteht, was erwartet wird. Sie ist das Herzstück des Prompts. Ohne sie bleibt der Output vage oder ist unbrauchbar. In den meisten Fällen merkt der Anwender das nicht sofort, denn die KI formuliert blendend.

Die KI gaukelt dir Glänzendes vor, obwohl nur Durchschnittliches oder gar ungeeignete Information angeboten wird.


Beispiel:

"[Rolle:] Du bist ein wissenschaftlicher Lektor. [Kontext:] Ich schreibe eine Hausarbeit über soziale Ungleichheit. [Anweisung:] Überarbeite den folgenden Text auf wissenschaftlichen Stil, logische Struktur und sprachliche Präzision. Gib mir auch Hinweise, was und warum du etwas verbessert hast."

Durch die zwei Wörter („und warum“) wird ein rückbezüglicher Lernvorgang eingeleitet. Die KI nennt Gründe für die Verbesserung des ursprünglich erstellten Textes.

Die eigenen, zumeist charakteristisch ähnlich ablaufenden Denkprozesse können so mit der Zeit logisch konsistenter werden. Die KI wird zum persönlichen Trainer und Coach. Eine Verbesserung der Denkvorgänge ist ja ein, wenn nicht das Hauptziel tertiärer Bildung.

 

Drei zentrale Merkmale einer gelungenen Anweisung

  1. Klarheit
    Was genau soll getan werden? Die Aufgabe muss eindeutig sein, die Formulierung daher präzise.
  2. Zielorientierung
    Warum soll die KI das tun? Was ist das gewünschte Ergebnis?
  3. Formatangabe
    Wie soll die Antwort aussehen? Aufzählungspunkte, Tabelle, Fließtext?

 

 

Handwerkliche Analogie zur Anweisung: 
Glasbläser nutzen die Glasmacherpfeife.
Mit diesem eisernen Rohr wird mundgeblasenes Hohlglas hergestellt.

 

Weitere Beispiele

"[Rolle:] Du bist ein Tutor für Soziologie. [Kontext:] Ich bereite mich auf eine Prüfung vor. [Anweisung:] Erkläre mir die Theorie von Pierre Bourdieu zur sozialen Kapitalbildung in einfachen Worten. Gib ein konkretes Beispiel und verweise auf Primärliteratur."

An Hochschulen und Universitäten sind Angaben zu Quellen Pflicht. Diese Quellenangaben sind zu prüfen, weil der KI auf diesem Gebiet nicht zu trauen ist.

 

"[Rolle:] Du bist KI-Textkritiker. [Kontext:] Ich habe einen Rohtext für ein Abstract geschrieben. [Anweisung:] Gib mir Verbesserungsvorschläge in Stichpunkten, ohne den Text umzuformulieren."  

Je nach Aufgabenstellung und Stand des Entstehungsprozesses der Antwort können weitere Merkmale einer gelungenen Anweisung genannt werden. Zum Beispiel die Nennung von Grenzen des KI-Tuns, wie bestimmte Stellen unverändert zu lassen.  

 

Fazit: Eine gut formulierte Anweisung spart Zeit, verbessert die Ergebnisse und hilft, mit der KI zu lernen.

22. April 2025

 

 


 

Prompt-Engineering V: 

 

 

Für wen schreibe ich eigentlich?

 

Diese Frage ist nicht nur für Menschen entscheidend, die Texte verfassen – auch Künstliche Intelligenz braucht sie, um zielgerichtete Antworten zu geben. Beim Prompt-Engineering an der Hochschule gilt: Wer sein Publikum kennt, bekommt die besseren Ergebnisse.

 

Warum Zielgruppen beim Prompt-Engineering wichtig sind

KI antwortet nicht einfach neutral. Sie orientiert sich an dem, was ihr mitgeteilt wird: Thema, Ziel, Stil – und eben auch das Publikum. Wer bei der Prompt-Formulierung klarmacht, für wen die Antwort gedacht ist, erhöht die Relevanz und Qualität der Antwort deutlich.

Es lohnt sich, zwei Ebenen zu unterscheiden:

  • Publikum 1 (P1) = der Prompter, also der Mensch, der die Anfrage formuliert.
  • Publikum 2 (P2) = die Zielgruppe, für die P1 die Antwort benötigt.

Je nach Beziehung zwischen P1 und P2 verändern sich der Sprachstil, die Breite oder Tiefe der Antwort, das verwendete Vokabular. Eine gute KI-Antwort ist dann wie ein Maßanzug: Sie passt perfekt zum Publikum.

 

Die zwei Publika: Anwender und Adressat

P1 ist nahezu immer der Ausgangspunkt und sollte im Prompt erkennbar sein: Wer fragt und mit welchem Ziel?

P2 gibt der KI eine weitere Dimension vor. Wer ist die spezielle Zielgruppe? Was weiß diese schon, was braucht sie noch? Das macht die Antwort nicht nur präziser, sondern auch anschlussfähiger an die Zielgruppe und daher nützlicher.

 

Typische Zielgruppen im Hochschulkontext

Im akademischen Umfeld lassen sich typische Zielgruppen definieren. Wer Prompts für KI schreibt, sollte sich klar machen, in welche Kategorie das Publikum fällt:

  • Studierende: Benötigen meist eine erklärende Darstellung mit konkreten Beispielen und klaren Definitionen. Hilfreich sind außerdem Hinweise auf Primärquellen zur Vertiefung.

  • Lehrende an Unis und Hochschulen: Erwarten eine detaillierte, wissenschaftlich argumentierende Antwort, die aktuelle Forschungsliteratur einbezieht, methodisch begründet ist und kritische Reflexion zulässt.

  • Fachpublikum: Etwa auf Konferenzen oder als Leserinnen wissenschaftlicher Journale. Es erwartet eine tiefgehende Analyse mit fachterminologischer Präzision, kritischer Diskussion und Anbindung an den aktuellen Forschungsstand.

  • Interdisziplinäres Publikum: Sollte übergreifend verständlich angesprochen werden. Basis: Maturaniveau. Gleichzeitig sollte es Zugang zu weiterführender Fachliteratur erhalten.

  • Wissenschaftsrelevante Spezialpublika: Hierzu zählen Politikerinnen, Journalistinnen, Verlagsmitarbeitende oder Influencerinnen in sozialen Medien. Sie benötigen wissenschaftlich fundierte, aber zugleich praxisnahe und umsetzungsorientierte Inhalte.

  • Breites interessiertes Publikum: Segmente der allgemeinen Bevölkerung. Es sollte allgemein verständlich angesprochen werden. Hier ist ein wissenschafts-journalistischer Stil angemessen. 

 

Prompt-Beispiele aus Wirtschafts- und Pflegewissenschaften

"Ich bin ein Masterstudent der Wirtschaftswissenschaften und soll ein Handout für ein Leadership-Seminar erstellen. Erkläre den Unterschied zwischen transaktionaler und transformationaler Führung so, dass meine Kommilitonen in der Lehrveranstaltung diesen gut nachvollziehen können."

"Ich bin eine Pflegefachkraft in der Weiterbildung zur Praxisanleitung möchte für einen Schulungstag eine KI-generierte Einführung in das Konzept der aktivierenden Pflege erstellen. Der Text soll für Auszubildende im ersten Lehrjahr leicht verständlich und praxisnah formuliert sein."

Diese beiden Beispiele zeigen, wie konkret ein Prompt sein kann – und wie hilfreich diese Konkretisierung für die KI ist.

 

Fazit: Für kluge Prompts zählt das Publikum

Prompt-Engineering ist mehr als Technik: Es ist Gestaltung der Kommunikation. Wer seine Zielgruppe kennt, hilft der KI, bessere Texte zu erstellen – sei es für Vorträge, Hausarbeiten oder Forschungskommunikation.

16. April 2025

 

 

 



Prompt-Engineering IV: 

 

 

Was macht einen Prompt gut? Der Kontext.

 

Stell dir vor, du gibst einer KI den Auftrag: „Schreib mir eine Zusammenfassung über soziale Ungleichheit.“ Klingt einfach. Doch ohne Kontext weiß die KI nicht, für wen, in welchem Stil oder mit welchem Ziel sie schreiben soll. Genau hier kommt der Kontext ins Spiel – und der ist viel mehr als nur 'Um'-Feld.

 

Kontext ist Gewebe, nicht Kulisse

Das Wort „Kontext“ kommt vom lateinischen contextus – es bedeutet „das Zusammengewebte“. Das Wort Contextus enstand aus einer Verbindung von con (mit) und texere (weben)1. Etwas Zusammengewebtes, also ein Textil, ist mithin ein flächiges Gebilde, das aus mindestens zwei Fadensystemen (Kette und Schuss) besteht. Es können auch mehrere Fadensysteme eingewoben sein, wobei gilt: Je dichter gewebt, umso stabiler ist das Gewebe. 

Der Kontext ist mithin das gesamte Bedeutungsfeld, das Einfluss auf die Interpretation von Zeichen, Texten oder Kommunikationsakten hat. Er umfasst sprachliche und nichtsprachliche (situative, psychologische, soziale und kulturelle) Faktoren, die das Verstehen und Verhalten steuern.

Umgesetzt auf Sprache und Kommunikation heißt das: Ein einzelner Aspekt – Inhalt, Situation, Tonfall oder Zielgruppe – reicht nicht. Erst im Zusammenspiel ergibt sich Bedeutung. Deshalb ist „Kontext“ nicht bloß eine nette Nebensache. Und schon gar kein Umfeld, das man zur Not ignorieren kann. Wer nur einen einzelnen Faden betrachtet, verkennt das ganze Muster. 

 

 

Kathedrale von Sevilla, Andalusien/Spanien

  

Warum Kontext im Prompt-Engineering entscheidend ist

Im Umgang mit KI ist Kontext ein zentrales Gestaltungselement. Wir können Teile des Kontexts direkt in die Anweisung schreiben („Stell dir vor, du bist eine Lektorin…“) oder sie der KI zuschreiben („Du bist ein wissenschaftlicher Assistent für Soziologie“). So steuern wir, wie die KI antwortet – fachlich, stilistisch, sprachlich.

Ein effizienter Prompt berücksichtigt den fachlichen Rahmen. Der Kontext sollte in der akademischen Umgebung den jeweils spezifischen Bereich darlegen:

  • Fachbereich: Naturwissenschaften, Geisteswissenschaften, Ingenieurwesen etc.
  • Studienniveau: Bachelor, Master, Doktorat
  • Anwendungsfall: Literaturrecherche, Hausarbeiten, wissenschaftliches Schreiben, Prüfungsvorbereitung etc.

Zum Beispiel: „Die Nutzer sind Masterstudierende der Sozialwissenschaften. Sie schreiben eine Hausarbeit zu einem theoretischen Thema. Die KI soll beim Strukturieren, beim präzisen Argumentieren und bei der Suche nach geeigneten Quellen helfen.“ So ein Kontext schafft Orientierung – für die Maschine und für den Menschen.

 

Welt als Gewebe – nicht als wissenschaftliche Insel

Zum Schluss ein Gedanke über den Tellerrand hinaus: Viele Disziplinen arbeiten in engen Bereichen und nennen alles andere „Umfeld“. Doch diese oft historisch bedingten und künstlic geschaffenen Grenzen versperren die Sicht auf die große Welt. Kontext-Denken bedeutet, Disziplinen verknüpfen, statt sie zu isolieren.

8. April 2025 

 

1 Chambers Dictionary of Etymology (2008). Context. H. W. Wilson, S. 213

 

 


 

Prompt-Engineering III: 

 

 

Stil und KI-Rolle

Der Einfluss des Prompt-Engineerings auf den Stil wissenschaftlicher Texte

  

Der Einsatz von Künstlicher Intelligenz (KI) in wissenschaftlichen Arbeiten erfordert nicht nur die Beachtung inhaltlicher Kriterien, sondern auch stilistische Überlegungen. Wissenschaftliche Texte folgen strengen Regeln hinsichtlich Sachlichkeit, Nachvollziehbarkeit und struktureller Klarheit. Die Art, wie ein Prompt formuliert wird, beeinflusst maßgeblich die Antworten der KI. 

 

Der Stil in wissenschaftlichen Arbeiten

Wissenschaftliche Texte sind geprägt von einer präzisen, objektiven und neutralen Sprache – oder streben das zumindest an. Emotionale oder subjektive Formulierungen sind zu vermeiden, jede Aussage sollte nachvollziehbar, begründet und belegt sein. Eine KI, die für akademische Zwecke eingesetzt wird, ist daher so zu instruieren, dass ihre Antworten diesem Stil entsprechen.

Eine weniger formelle Anrede oder eine umgangssprachliche Formulierung wird dazu führen, dass die KI in einem lockeren und weniger präzisen Stil antwortet. Das allerdings ist in wissenschaftlichen Texten nicht erwünscht.

  

Unterschiedliche Rollen der KI und ihre stilistischen Ausprägungen

Festzuhalten ist jedoch: Nicht alle KI-Rollen in der Wissenschaft erfordern den objektivierenden Stil. Während analytische Texte einen sachlichen Stil voraussetzen, kann die KI in anderen Kontexten, etwa als Motivationscoach bei Schreibblockaden, einen persönlichen Tonfall annehmen. Hier wird es sinnvoll sein, die KI bereits mit einer freundlichen Sprache zu adressieren, um unterstützende Wirkung zu erzielen: Sprich die KI mit "du" an, sag eventuell "bitte". Die KI antwortet dann vielleicht mit „Gerne. ...“.

Nicht dass der Chatbot nun Gefühle entwickelt hätte, aber ein solcher Stil hat den Vorteil, dass DU (die Anwenderin, der Anwender) durch die persönliche Antwort dich unmittelbar angesprochen fühlst. Ein Beispiel:

  • Wissenschaftlicher Textbaustein: „Erkläre die Prinzipien des Prompt-Engineerings in wissenschaftlichen Arbeiten mit Fokus auf Objektivität und Nachvollziehbarkeit.“

  • Motivationsfördernder Textbaustein: „Ich brauche Unterstützung, um meine Masterarbeit weiterzuschreiben. Ermutige mich bitte mit positiven Formulierungen und konkreten Schreibtipps.“

  

Was der Chatbot nicht erleben kann: den Sonnenaufgang in einer chilenischen Wüste

 

Risiken und ethische Aspekte der KI-Nutzung

Die Nutzung von KI in akademischen Arbeiten birgt neben stilistischen Fragen auch ethische Herausforderungen für alle Beteiligten. Insbesondere bei der Interaktion mit KI-gestützten Tools geben Nutzende persönliche Informationen preis. Und diese werden von den marktdominierenden US-amerikanischen Tech-Konzernen wohl sofort ausgewertet. Um Datenschutzrisiken zu minimieren, empfiehlt es sich, Chatbots gelegentlich zu wechseln.

Hier bietet sich etwa die chinesische DeepSeek-App an. Jedoch das aber bedeuten, dass man vom "Regen in die Traufe" kommt. Zumindest wären dann die Risiken geteilt und damit insgesamt kleiner. Europäische Anbieter mit höheren Datenschutzstandards sollten bevorzugt werden. Sie sind derzeit noch klein, aber fein.

Beispiele hierfür sind Aleph Alpha aus Deutschland für Unternehmen oder Le Chat von Mistral AI aus Frankreich (leider kostenpflichtig). Sie halten sich an die DSGVO-Richtlinien der EU. 

 

Fazit

Das Prompt-Engineering spielt eine zentrale Rolle für die Qualität und den Stil von KI-generierten wissenschaftlichen Texten. Eine bewusste Steuerung des Tonfalls hilft, präzise und den akademischen Standards entsprechende Antworten zu erhalten. Gleichzeitig sollte der Schutz der eigenen Daten nicht aus den Augen verloren werden.

31. März 2025 

 

 


 

Die Rolle

(Prompt-Engineering II)

 

 

Zur Wiederholung: Prompt-Engineering bedeutet die gezielte Gestaltung von Eingaben, um von einer KI präzise und relevante Antworten zu erhalten. Wir haben das letzte Mal drei Dimensionen eines effektiven Prompts angesprochen: Rolle, Kontext und Anweisung. Einige ausgewählte KI-Rollen werden nun aus Sicht von Studierenden an Universitäten und Hochschulen näher betrachtet. 

 

Das Problem klar formulieren

Zuerst kläre das aktuelle Problem – genauso, wie es bei wissenschaftlichen Arbeiten im Rahmen der Einleitung erfolgt. Dieses Problem reicht von der Themensuche bis zur grammatikalischen und stilistischen Endkorrektur. Auf das Problem (oder das Erkenntnisinteresse) wird die spezifische Rolle der KI angepasst. Hier drei Beispiele:

  • „Ich weiß nicht, wie und wo ich anfangen soll.“ Dann kann die KI in der Rolle als Berater, Motivationscoach oder Strukturoptimierer Vorschläge machen. Ich schreibe deshalb Strukturoptimierer und nicht Strukturentwickler, weil die grundsätzliche Gliederung als Basiswissen bzw. als Erstvorschlag vom Studenten selbst kommen sollte.
  • „Mein Text ist nicht im wissenschaftlichen Stil formuliert.“ Hier könnte die KI als Lektor oder als Kritiker eingesetzt werden. 

  • „Wie soll ich die vorhandenen (oder demnächst zu erhebenden) Daten analysieren?“ Nutze die KI als Argumentations- bzw. Begründungsberater, als Methodencoach oder als Datenanalyst.

Wie aus meinen Kommentaren zu den drei Beispielen erkennbar wird, können zahlreiche Rollen relevant werden. Im Folgenden werden zwei Rollen detaillierter behandelt.

 

Eine Rolle zuweisen

Teile die jeweilige Rolle der KI explizit mit: „Du bist in der Rolle eines XXXX [zB eines Methodencoaches].“

Was die KI an Funktionen in einer spezifischen Rolle leistet: 

  • In der Rolle als Berater: Hier könnte die KI das Thema eingrenzen. Ein häufiger Fehler ist eine zu breite Themenwahl bei der Gliederung. Dies geschieht oft aus der Sorge der Studierenden, nicht genug Stoff für das Schreiben zu finden. Eine meist unbegründete Sorge.

    Weitere ergiebige Fragen in der KI-Rolle als Berater sind: "Wie können die gewählten theoretischen Konzepte/Modelle mit der Empirie verbunden werden?" oder "Wie können die Ergebnisse mit aktuellen gesellschaftlichen Entwicklungen verknüpft werden? "

  • In der Rolle als Recherche-Assistent: In dieser Rolle sollte die KI mit Bedacht eingesetzt werden! Die Antworten sind für eine seriöse akademische Recherche meist zu fehleranfällig und unzuverlässig. Aktuelle Suche in der Fachliteratur zur spezifischen (von der KI kaum richtig zu erkennenden) Forschungslücke bleiben Aufgabe des Studierenden.

    Sonst gibt es Allerweltsantworten, die Durchschnittliches aus der Vergangenheit spiegeln. Dies genügt nicht wissenschaftlichen Standards! Für Dissertationen etwa erwartet man grundsätzlich Neues. Die Rolle als Recherche-Assistent ist jedoch hilfreich, wenn man rasch eine Zusammenfassung einer ausführlichen Studie benötigt.

 

Nachdem die Rolle der KI definiert wurde, bleibt eine zentrale Frage: Wie sind die Antworten der KI zu bewerten? Damit die Zuweisung einer Rolle zu verwertbaren und akademisch seriösen Ergebnissen führt, ist eine richtige Verarbeitung der Antworten entscheidend. Genau hier greift die Sandwich-Regel.

 

Die Sandwich-Regel als Leitprinzip

Eigenständiges Denken steht vor dem Einsatz von Chatbots. Erst danach kommt die KI zur Anwendung. Die Beurteilung, Überprüfung und Weiterverarbeitung der KI-Antworten obliegen wieder dem Nutzer. Die KI ist lediglich die 'Füllmasse' im Sandwich.

Richtig vorgegangen zeigt sich ein lernpsychologischer Effekt: Klar zu denken ist das Allerwichtigste. Die Fähigkeit, zwischen hilfreichem und unbrauchbarem Output zu unterscheiden, bleibt eine zentrale menschliche Kernkompetenz. Doch der Umgang mit fehlerhaften oder ungeeigneten Antworten lässt sich erlernen. 

 

Strukturierendes und logisches Denken sowie entsprechendes Formulieren lassen sich letztendlich nicht an die KI übertragen. KI kann den Boden für ein fruchtbares Lernen bereiten. Chatbots sollen zum Beispiel genutzt werden, ineffiziente Recherchen zu verringern. Das wiederum erhöht die Freude am eigentlichen Forschen und am Schreiben einer wissenschaftlichen Arbeit.

 20. März 2025 

 Freude am Tun

 


 

 

Prompt-Engineering I

 

 

Studenten nutzen seit fast zweieinhalb Jahren die generative KI für ihr Studium. Allerdings regelmäßig mangelhaft. Sie starten den Chatbot und schreiben ohne viel nachzudenken einfache Anweisungen wie „Mach eine Liste zu ...“ oder „Erkläre das …“

Doch diese unspezifischen Anfragen liefern nur mittelmäßige Antworten. Sie gleichen Einheitsgrößen in der Kleiderbranche: passend für viele, aber selten perfekt. Die Antworten der Chatbots sind durchschnittlich und wenig auf das jeweilige Problem zugeschnitten. Leider merken die Anwender nicht, dass sie nur einen Bruchteil des tatsächlichen KI-Potenzials ausschöpfen.

Unspezifische Prompts wirken wie ein Jäger, der blind in die Luft schießt – und dennoch erwartet, dass ihm gerupfte und gebratene Enten vor die Füße fallen. Also:

So funktioniert das nicht. Doch wie dann? 

Large Language Models (LLMs) zeigen große Problemlösungsfähigkeiten. Die KI-Effektivität jedoch variiert enorm. Die Effektivität ist abhängig von der Formulierung der Anweisung (Prompts). Sie ist überdies kontingent. Das heißt, die Antworten sind mal so, mal so, abhängig von modellinternen Strukturen und Prozessen. Umständen, die wir nicht erkennen oder nur wenig beeinflussen können.   

Die Kunst des Prompt-Engineering – also das gezielte Formulieren von Anweisungen an die KI – hat sich zu einer gefragten Fähigkeit entwickelt. Soziale Medien sind voller Beispiele, und Influencer versuchen mit spezifischen Prompt-Techniken, Follower (und damit Geld) zu gewinnen.

 

Warum die Formulierung von Prompts entscheidend ist

Doch um das volle Potenzial von KI-Modellen auszuschöpfen, reicht es nicht, diese Techniken zu kopieren. Man muss verstehen, wie die Modelle grundsätzlich funktionieren. Wer KI sinnvoll anwenden will, benötigt daher ein solides Grundwissen

 

Eine der Grundstrukturen eines effektiven Prompts

Die effektive Nutzung von Chatbots beruht auf einer klaren Struktur:

  • Rolle: Wer gibt die Antwort? Die KI erhält eine klare Rolle und weiß, aus welcher Perspektive die Anfrage zu beantworten ist.
     
  • Kontext: In welchem Zusammenhang steht die Anfrage? Der Kontext hilft der KI, die Situation besser einzuordnen.
     
  • Anweisung: Was soll konkret geschehen? Die Anweisung sollte präzise und eindeutig sein.

 

Ein Beispiel

„Du bist ein Experte für Musikpädagogik. Ich bin mäßig fortgeschritten im Klavierspiel. Wie soll ich vorgehen, damit ich klassische Musikstücke besser auswendig lerne?“

Mehr über das Prompt-Engineering im Folgeblog.

 

12. März 2025

  

 

Die KI kennt sich nicht aus.


(In realiter: Eine Gruppe nachts in Nordnorwegen am Feuer, die auf das Erscheinen von Polarlichtern wartet.)

 

 


 

 

Wie Hochschulen mit KI überfordert sind –
und warum ihre Regeln scheitern

 

 

„Schluss mit absurden KI-Regeln!“1 – dieses Statement von Doris Wessels, Professorin für Wirtschaftsinformatik, schlägt Wellen in netzbasierten Medien2. Wessels berichtet von einem AbsurdKIstan an Hochschulen. Seltsame Regeln für den Einsatz von Chatbots lassen vermuten, dass nicht wenige Hochschulen überfordert sind, selbst mehr als zwei Jahre nach ChatGPT-Einführung.

KI-Nutzung erschüttert das Bildungssystem. Massenhaft und unreflektiert werden Inhalte übernommen, hierzu wurde ein eigener Begriff erfunden: der AI-Giarismus, vermutlich entstanden als Ableitung und Pendant zum Plagiarismus. Betroffen sind beide involvierten Akteure: Studierende und Hochschulen.

Die Unehrlichkeit (Faulheit?) der Studenten trifft auf die mangelnde Bereitschaft der Hochschulen, fundiert und effektiv damit umzugehen. Kein Wunder, dass dies entsprechende Diskussionen in internationalen Konferenzen befeuert3. Wie einfach war der gute alte Plagiarismus.

 

Hilflosigkeit

Hochschulen schwanken zwischen KI-Verboten und veralteten Regeln, etwa dem Zitieren des Urhebers einer Aussage. Und deshalb sollen nun KI-Programmierer zitiert werden, so eine Hochschule laut Wessels. 

Sind KI-Programmierer die Urheber? Soll der Programmierer als Quelle zitiert werden? Nein, sie schreiben die Texte ja nicht. Sie stoßen vielmehr die KI an, verbale Splitter aufgrund statistischer Beziehungen zwischen abstrakten Kategorien zu jonglieren.

Inadäquate Regeln zeugen von Hilflosigkeit. In der realen Welt stößen Zitierende sofort auf die Barriere, dass die Programmierer unbekannt sind. Ist dann ersatzweise Sam Altmann zu nennen, weil er der CEO von OpenAI ist? Unbrauchbare KI-Regeln zeigen, dass klassische Zitierregeln versagen. Gefragt ist eine intelligente Anpassung. Wäre dies nicht gerade von „Hoch“-Schulen und Universitäten zu erwarten? Wo, wenn nicht hier?

 

Angriff auf das Zitieren, ein Fundament der Wissenschaft

Seit mehreren Jahrhunderten verlangt die Wissenschaft exakte Quellenangaben. KI-Regeln, die auf diesen Vorgaben fußen, offenbaren ein zentrales Warum des Zitierens: Die Wurzel eines Gedankens oder Konzeptes soll lokalisiert werden.

Die kontextuell mitschwingende Gedanken- und Erfahrungswelt des Autors kann erkundet und nachverfolgt werden. Wir erkennen unzureichende Schlussfolgerungen oder implizit getroffene Annahmen. Aussagen können so von der wissenschaftlichen Community relativiert werden. Dadurch steigt der Wahrheitsgehalt eines Gedankens oder Konzepts.

Wir bauen durch Zitieren gesicherte Gedanken- und Ideennetze auf, ohne jedesmal neu bei Adam und Eva anzufangen. Genau das passiert, wenn man die KI unkontrolliert einsetzt. Ein Zurückfallen in eine Zeit, wo alles Geschriebene per se heilig war. Was damals wie heute Konsequenzen hat:

Gefangen im Nebel überzeugend klingender Sätze wissen wir nun nicht, was wahr ist oder nur gut erdichtet.

23. Februar 2025

 

Blockierendes Geröll in unübersichtlicher Lavahöhle auf Lanzarote

 

1 Wessels, D. (16.01.2025). Die Zeit. Die Position: Schluss mit absurden KI-Regeln!  https://www.zeit.de/2025/03/kuenstliche-intelligenz-studium-hochschulen-regeln.

2 Europa One AI News (16.01.2025). Artificial Intelligence in Higher Education:  Ending Absurd AI Rules in German Universities. Criticism of AI Policies in Higher Education. https://oneainews.com/kunstliche-intelligenz-im-studium-ending-absurd-ai-rules-in-german-universities/

3 Mironova, L./Riashchenko, V. et al. (2024). Ethical Concerns in Using of Generative Tools in Higher Education: Cross - Country Study. Environment. Technology. Resources. Rezekne, Latvia. Proceedings of the 15th International Scientific and Practical Conference. Volume II, 444-447, https://vb.kvk.lt/object/elaba:200959443/

 

 


 

 

Unis ertrinken im KI-Teich

 

 

Sie gehen still unter – die Ertrinkenden. Anfangs schlagen sie noch mit den Armen, doch von außen bemerkt es niemand. Wasser füllt die Lunge, sie versinken.

 

Weissensee in Kärnten 


Genauso drohen Hochschulen im Strudel der KI unterzugehen. Sie ignorieren die Entwicklung oder erlassen absurde KI-Regeln1. Verantwortung wird auf Institute oder Dozierende abgeschoben, manche verzichten sogar auf Bachelorarbeiten. Alles unwürdig einer Hochschule.

 

Dabei erschüttert KI unser gesamtes Privat- und Berufsleben. Doch statt sich aktiv mit den Herausforderungen auseinanderzusetzen, stecken Universitäten den Kopf in den Sand oder treffen Fehlentscheidungen. Wie Verkehrspolizisten, die Autos in die falsche Richtung leiten2.

Sichtbar wurde dieses Dilemma in der Vorbereitung auf das eigentliche Uni-Studium: In Österreich wurde die Verpflichtung zur vorwissenschaftlichen Arbeit (VWA) als Maturabestandteil abgeschafft. Die VWA ist nun eine Option. Das Problem  vor die Tür setzen – als wäre es damit gelöst: So einfach macht es sich die nationale Bildungspolitik.

  

Auch innerhalb der Hochschulen zeigt sich Unsicherheit. Viele setzen neben Plagiatssoftware zusätzlich KI-Erkennungsprogramme ein. Doch diese liefern keine sicheren Ergebnisse, sondern nur Wahrscheinlichkeiten – basierend auf veralteten Trainingsdaten und überholten Modellen. Solche Wahrscheinlichkeiten sind keine verlässliche Grundlage für Urteile. Das wusste man schon in der Antike.

Eine der oft negierten Wurzeln des Begriffes Wahrscheinlichkeit liegt in der Dichtkunst. Beispielhaft zu finden beim griechischen Komödiendichter und Satiriker Aristophanes. KI-Entdeckungssoftware malt – gleich einer Schmierenkomödie – jeden Absatz rot, wenn auch nur die geringste Wahrscheinlichkeit eines KI-Einsatzes auftaucht.

 

Ein konkretes Beispiel zeigt, wie problematisch diese Software ist: Ein Klient berichtete mir 2024, dass zwei, drei Absätze in seiner Masterarbeit wegen angeblicher KI-Nutzung rot markiert wurden. Dabei war er extrem gewissenhaft gewesen, hatte jede Quelle und jedes Zitat akribisch überprüft. Trotzdem erhielten alle (!) Kandidaten eine schriftliche Verwarnung – unabhängig davon, ob nur zwei Absätze oder viele Seiten durchgehend rot aufgeleuchtet hatten.

Unbelegte Behauptungen einer fehleranfälligen Software dürfen kein Urteil begründen! Hochschulen setzen damit ihren Ruf aufs Spiel. Sie zerstören das Vertrauen der Studierenden. Achtung vor der Institution Hochschule? Ertrunken in den Untiefen universitär-systemischer KI-Inkompetenz.

30. Jänner 2025

 

PS: Müssen wir uns bald an chinesischen Universitäten einschreiben, um den professionellen Umgang mit KI zu erlernen?

 

1 Darüber mehr in den Folgeblogs

2 Es gibt hell leuchtende Ausnahmen von KI-kompetenten Dozenten und lohnenden Veranstaltungen. Auch darüber später mehr.