KI oder selber nachdenken?

KI oder selber nachdenken?
Photo by Tingey Injury Law Firm / Unsplash

In der Blogosphäre wird gerade diskutiert: nachdenken oder doch lieber die KI befragen? Lorenzo, Thomas, Henning und Herr Tommi haben dazu bereits ihre Meinungen aufgeschrieben.

Ich benutze keine KI. Aber ich würde lügen, wenn ich sagen würde, dass ich noch nie ChatGPT & Co ausprobiert hätte. Vielleicht ist eine KI ja ein ganz nettes Tool, um sich inspirieren zu lassen, um Themen für den Blog zu finden, um Texte auf Fehler kontrollieren zu lassen.

Aber vielleicht kann ich auch einfach selber nachdenken, selber auf der Suche nach Inspiration gehen oder selber Texte korrigieren. Im Zweifel kann ich auch jemanden fragen, einen Menschen und keine KI.

Wenn ich ein Titelbild brauche, suche ich mir entweder ein passendes lizenzfreies oder nehme eins, was ich selber gemacht habe. Oder, was ich in letzter Zeit sehr oft tue: ich lasse das Titelbild einfach weg. Ich möchte kein KI-generiertes Bild, bei dem am Ende komische Sachen rauskommen, wie z. B. diese Fahrräder. Lieber male ich dann selber ein Fahrrad, was den KI-generierten sogar ziemlich ähnlich sein wird. KI trainiert mit Werken von anderen, die in den seltensten Fällen ihre Erlaubnis dafür gegeben haben. Ich bin selber kreativ unterwegs, auch wenn ich in letzter Zeit nicht mehr gezeichnet habe. Ich möchte nicht, dass meine Werke zu Trainingszwecken genutzt werden, nur damit irgendjemand ein Bild erstellen lassen kann, aus dem nicht mehr hervorgeht, wer der Mensch bzw. die Menschen sind, die verantwortlich an dem Bild sind. "Quelle: KI-Bild" ist genauso sinnlos wie Google als Quelle anzugeben.

Auch bei der Beschaffung von Informationen benutze ich keine KI. Suchmaschinen spucken zwar gerne am Anfang einen KI-Text aus, quasi eine Zusammenfassung. Aber die überfliege ich nur. Ich möchte die Quelle lesen, nicht etwas, was die KI irgendwo gefunden und womöglich sogar zusammengesponnen hat. Henning schreibt:

"Selbst wenn ich irgendeine KI befragen würde, muss ich doch immernoch bewerten, ob das Alles so stimmen kann, was die behauptet."

Das meine ich. Natürlich kann ich auch auf einer Internetseite landen, auf der Quatsch steht. Aber dafür habe ich ja die Suchmaschine vor mir. Ich kann mir mehrere Quellen anschauen und anhand von verschiedenen Anhaltspunkten erkennen, ob die Quelle seriös ist:

  • wer hat die Info geschrieben? Ist die Person auf dem Gebiet Experte*in?
  • auf welcher Seite steht die Info? Wer betreibt die Seite?
  • wie alt ist die Info?

Kolleg*innen von mir benutzen ChatGPT für Fragen aus dem Support. Ich würde mich aber nicht darauf verlassen, sondern immer noch in unsere eigene Doku schauen. Denn nur weil ChatGPT sagt, dass man in Y dieses oder jenes machen kann und dann noch eine Schritt-für-Schritt-Anleitung liefert, kann es durchaus sein, dass genau das bei uns nicht geht, weil für uns andere Funktionen freigeschaltet sind oder weil ChatGPT die Info zu Version 5.x hat, wir aber Version 4.x haben.

Auch von einer KI formulierte Texte sehe ich durchaus schon mal und als (Hobby)Autorin, als Bloggerin, als Person mit einem sprachwissenschaftlichen Hintergrund, als Lesende, finde ich es fürchterlich, sowas zu lesen. Die Texte sind betont freundlich, zuvorkommend und klingen sehr künstlich. Ich kann sofort erkennen, dass das kein Mensch geschrieben hat.

Ich sehe außerdem durch die Arbeit, dass viele anscheinend nicht mehr wissen, wie man Informationen sucht und findet. Wir erhalten Anfragen zu Informationen, die man locker mit einer einfachen Googlesuche findet. Man muss nur wissen, wie man sucht. Im Studium kann man sich auch nicht darauf verlassen, von anderen (einschließlich KI) Informationen zu bekommen. Gerade bei Abschlussarbeiten ist doch auch wichtig zu wissen, wo man Literatur findet, wie man sie findet und diese Recherche fand ich immer sehr spannend. Eigentlich schade, dass ich mit dem Studium fertig bin.

Okay, an der Stelle ein Geständnis: ich benutze manchmal deepL, um einen von mir auf Englisch geschriebenen Satz zu kontrollieren. Da ich behaupten würde, dass ein Englisch ziemlich gut ist, kann ich auch bewerten, ob deepL mir Schwachsinn anzeigt oder ob es gut klingt. Worauf ich mich weniger verlassen würde, ist Google. Ich hatte mal einen französischen Spruch, der auf einem Zettel in französischer Schokolade steckte, übersetzen lassen mit Google. Nun ist mein Französisch eher ... schlecht. Ich hab den Text dann noch mal mit deepL übersetzt und anschließend beides noch mal rückwärts ins Deutsche. Was soll ich sagen: DeepL schien ziemlich richtig zu liegen.

Der Spruch war übrigens:

Je fais le plus de choses que je peux par amour pour me reposer d'en faire tant par nécessité.

Als ich den bei Google eingegeben hab, kam raus:

Ich tue so viel, wie ich kann, aus Liebe um mich auszuruhen, so viel aus Notwendigkeit zu tun.

Und deepL:

Ich tue so viel wie möglich aus Liebe, um mich davon zu erholen, so viel aus Notwendigkeit zu tun.

Zwischen den Sätzen ist schon ein Unterschied. Der Satz von der Google KI ist, finde ich, schwerer zu verstehen. Er klingt schon fast nach einer wörtlichen Übersetzung. Der von deepL übersetzten Satz macht hingegen Sinn.

Mein Fazit

Ich möchte selber denken und Lösungen suchen. Ich möchte die Quellen lesen und mich vergewissern, dass die Information keine falsche ist. Ich möchte mich nicht auf eine KI verlassen. Ich möchte auch selber kreativ sein können, selber formulieren. Inspirationen finde ich auch woanders. Und wenn nicht? Dann ist das eben so. Ideen kommen oft an den ungewöhnlichsten Orten und zu den komischsten Zeiten.

Generell sollen Menschen nicht vergessen, wie man auf die "alte" Art recherchiert, die simpelsten Informationen sucht. Und bitte lasst es mit KI-generierten Texten.