01.01.2023 Roboter schreiben Texte

Wer hat denn diesen Unsinn geschrieben?

Diese Frage stellt man sich beim Stöbern im Internet oft. Seit einiger Zeit sollte man sich auch Gedanken machen, ob der Text von einem Menschen stammt oder eine KI, eine künstliche Intelligenz, am Werk war. Nach der Veröffentlichung des Chatbots ChatGPT Ende November haben bereits über einer Million Menschen sich von dieser Software Geschichten, Witze u.a. schreiben lassen.

Wir müssen also damit rechnen, dass das Internet in der Zukunft mit KI-generierten Texten überflutet wird. Das bedeutet schon wieder einmal das Gegenteil von Nachhaltigkeit, denn die literarisch und politisch völig überflüssigen Texte werden hin- und hergeschickt, ohne dass die Verursacher die CO2 Emisionen zahlen.
Noch schlimmer ist dieser Effekt bei "Spielereien" mit Bilddateien oder Videos (Deep Fake ersetzt Gesichter durch andere)

Die politiisch wichtigere Nachricht ist, dass es kaum eine Möglichkeit gibt, die vom Chatbot von OpenAI erstellten Texte als minderwertig und damit unwichtig zu erkennen. So erscheinen sie nämlich nicht - im Gegenteil.

Markieren - verbieten - oder?

Als Aktion Freiheit statt Angst sind wir natürlich gegen jede Zensur im Internet, aber eine Markierung könnte hilfreich sein, wenn man befürchten muss, dass solche automatisch erzeugten Texte in Massen genutzt werden können, um die öffentliche Meinung in eine Richtung zu beeinflussen. Die Voraussetzung für eine Kennzeichnung ist aber erst einmal, dass man sie als künstlich erzeugt erkennt.

In den Anfängen der automatischen Texterzeugung war es einfach so etwas zu erkennen, aber inzwischen sind die automatisch erzeugten Texte formal besser und in jedem Fall fehlerfreier als vom Menschen geschriebene. Aber auch die Methoden, mit denen Forscher versuchen KI-generierte Text zu erkennen, werden besser. So hilft das Auszählen von häufig vorkommenden Wörtern, wie "the", "it" oder "is". Das Ergebnis ist aber immer nur eine Wahrscheinlichkeit und keine klare 0 oder 1.

Fazit: Systeme zur Erkennung von KI-Sprachmodellen erzeugten Texten müssen selbst KI-Sprachmodelle enthalten, wenn sie die Texte beurteilen möchten. Damit sind die möglichen Kontrolleure genau diejenigen, die z.Zt. auf diesem Gebiet in Führung liegen. Und ChatGPT ist ein Ableger des großen Sprachmodells GPT-3 der von Elon Musk, Microsoft und anderen Konzernen finanzierten Firma OpenAI.

Auf ein weiteres Problem sind wir nicht eingegangen: Außer für "normale Sprache" werden KI Programme auch eingesetzt, um lästigen Standardcode für Softwareprogramme automatisch zu generieren. Wenn sich dort Fehler einschleichen, werden diese eventuell erst im Wirkbetrieb entdeckt, wenn sie sich fatal bemerkbar machen.

Mehr dazu bei https://www.heise.de/hintergrund/Wie-man-KI-generierte-Texte-erkennen-kann-7434812.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3rE
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8259-20230101-roboter-schreiben-texte.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8259-20230101-roboter-schreiben-texte.htm
Tags: #AI #KI #künstlicheIntelligenz #ChatGPT #Textgenerierung #DeepFake #Manipulation #Texterkennung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Datenskandale #Diskriminierung #Smartphone #Handy #Hacking

There are no comments yet.