#tay

aktionfsa@diasp.eu

19.03.2023 KI und neuronale Netze

Wenn Computer sprechen und malen sollen

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Gestern hatten wir uns mit den Möglichkeiten und Risiken bei der Benutzung des KI-Programms ChatGPT auseinandergesetzt. Dabei haben wir uns auf die Texterkennung und -generierung fokussiert und dabei vergessen, dass ein wesentlicher Teil auch die Spracherkennung und -genererierung ist. Mit einem "Roboter" oder Programm in der uns gewohnten Sprache kommunizieren zu können ist natürlich viel angenehmer als eine Tastatur zu benutzen.

Deshalb wollen wir heute auf einen Artikel bei Spektrum.de verweisen und ergänzen, dass

  • ChatGPT inzwischen auch Bilder erkennen und nach unseren Wünschen generieren kann,
  • maschinelle Spracherkennung schon seit den 1950-iger Jahren ein Ziel der Programmierung ist.

Manon Bischoff schreibt auf Spektrum.de:

Im Januar 1954 war eine IBM-701-Maschine der erste für wissenschaftliche Zwecke entwickelte Rechner, er wog knapp zehn Tonnen und tat etwas Unvorstellbares: Mit russischen Beispielsätzen gefüttert, druckte er eine ins Englische übersetzte Version aus.

Es dauerte noch 60 Jahre bis zum Aufkommen neuronaler Netze in den 2010er und 2020er Jahren, um Algorithmen so leistungsfähig zu machen, dass sie Texte verlässlich von einer Sprache in eine andere übertragen können. Nun kann ChatGPT sogar Witze erfinden - auch wenn diese meist nicht gut sind. Witze sind jedenfalls schwieriger zu erfinden als ein ansprechendes Bild zu malen. Für das Malen reicht ein Verständnis (= eine Tabelle) zu Farben und Beispielbilder von allen möglichen Objekten.

Wie bei der Übersetzung und der Spracherkennung reicht es nicht, so eine Tabelle (= Datenbank) nach einem Stichwort zu durchsuchen, sondern die Verknüpfungen müssen nach der Aufgabenstellung verschieden sein. Dazu benötigt man neuronale Netze, die ChatGPT so erklärt:

Neuronale Netze sind eine Art von Algorithmus für maschinelles Lernen, der von der Struktur und Funktion des menschlichen Gehirns inspiriert ist. Sie bestehen aus miteinander verbundenen Knoten oder »Neuronen«, die Informationen verarbeiten und zwischen den Schichten des Netzes weiterleiten. Jedes Neuron empfängt Eingaben von anderen Neuronen, führt an diesen Eingaben eine einfache mathematische Operation durch und leitet das Ergebnis dann an andere Neuronen in der nächsten Schicht weiter. Auf diese Weise können neuronale Netze lernen, Muster in Daten zu erkennen und auf der Grundlage dieser Daten Vorhersagen zu treffen.

Auf Spektrum.de heißt es dazu: Im Gegensatz zu gewöhnlichen Algorithmen macht der Programmierer in neuronalen Netzen keine eindeutigen Vorgaben (etwa: falls Neuron 2 aus Schicht 3 ein Signal mit Wert 0,77 erhält, dann wandle es in 0,89 um). Stattdessen lässt man das Netz selbst "lernen", welche Einstellungen am geeignetsten sind, um eine Aufgabe zu bewältigen.

Da der Computer schnell ist, kann er seine anfänglichen Fehler mit der Zeit ausbügeln. Allerdings braucht er dazu auch korrekte Rückmeldungen. Bestätigt man ihn in seinen Fehlern, so - kommen wir auf den Artikel von gestern zurück und haben es nun mit einem Rassisten oder anderem Idioten zu tun ...

Welche weiteren Einschränkungen die Computer beim "Lernen" unterworfen sind, erklärt Manon Bischoff auf Spektrum.de sehr gut und beschreibt auch die Fortschritte in den ChatGPT Versionen der letzten Jahre. Der Aufbau der neuronalen Netze kann - auch wegen der immer noch mangelhaften Rechenleistung - nur auf kurze Distanzen (der Begriffe in der Matrix) verlässlich sein. Deshalb ist bei aller Arbeit, die nun ein Computer erledigen kann, wichtig zu bedenken, dass er dies nur kann, weil Menschen ihn vorher bei den Bewertungen der Zusammenhänge richtig trainiert haben. D.h. natürlich auch, dass er nur das gut kann, wozu er trainiert worden ist.

Mehr dazu bei https://www.spektrum.de/news/wie-funktionieren-sprachmodelle-wie-chatgpt/2115924#Echobox=1678347819
und der Artikel von gestern https://www.aktion-freiheitstattangst.org/de/articles/8339-20230318-was-bietet-chatgpt.htm
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t4
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8340-20230319-ki-und-neuronale-netze-.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8340-20230319-ki-und-neuronale-netze-.htm
Tags: #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #malen #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Tesla #Musk #Rassist #DataMining

aktionfsa@diasp.eu

18.03.2023 Was bietet ChatGPT?

Wie weit ist die "künstliche Intelligenz"?

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Im Unterschied zu vielen Berichten über "künstliche Intelligenz" (KI) hatte Stephen Hawkins eine ganz andere Vorstellung von dieser Intelligenz. Seine Erwartung geht weit über das Wiedergeben von gesammelten Daten nach irgendwelchen Regeln (Algorithmen) hinaus. Deshalb müssen wir uns vor seiner Warnung vorläufig nicht fürchten.

Allerdings können die "Fähigkeiten" derzeitiger öffentlich zugänglich "künstliche Intelligenz" bereits für den Einzelnen gefährlich werden. Über die Möglichkeiten von KI in den Geheimlaboren der Geheimdienste haben wir zuletzt 2013 die Berichte unseres Ehrenmitglieds Edward Snowdens gehört.

ChatGPT

Öffentlich zugänglich ist z.B. das KI-basierte Konversationstool ChatGPT. ChatGPT, ein Prototyp eines Chatbots, wurde vom US-amerikanischen Unternehmen OpenAI entwickelt und ist seit November 2022 für Jede/n zugänglich. Ein kostenloser Zugang ist für alle möglich, darüber hinaus gibt es Premium Abos mit bevorzugter schnellerer Antwortzeit. Mit ChatGPT kann man also jederzeit ein Schwätzchen halten und ...

  • Fragen zu verschiedenen Themen stellen,
  • Texte in verschiedene Sprachen übersetzen lassen,
  • sich Texte erststellen lassen,
  • E-Mails beantworten lassen,
  • sich personalisierte Empfehlungen je nach Interessen und Vorlieben erstellen lassen.

Das alles macht ChatGPTmit einer riesigen Datenbank an weltweitem Wissen und eine große Menge an Regeln (Algorithmen). An dieser Stelle beginnt für einige die "Intelligenz", denn das Programm kann seine Regeln bewerten und entscheiden - also "lernen" -, welche es häufiger und welche weniger oft nutzt. Oft genug trifft es auch Entscheidungen, die dem Programm von Nutzer als schlecht oder falsch zurückgespiegelt werden. Daraus kann sich ein Erfahrungsschatz entwickeln.

Wie falsch dieser Erfahrungsschatz sein kann, haben wir bereits in der Vergangenheit in mehreren Fällen beschrieben.

Solange sogenannte KI Programme sich wie die üblichen Lügner und Rassisten benehmen, werden wir sie nicht als intelligent betrachten.

Wer macht das Geschäft?

Viel wichtiger erscheint uns, zu untersuchen warum ChatGPT scheinbar so erfolgreich und kostenlos nutzbar ist.

  • Datensammelei: alle Konversationen, die Menschen mit der künstlichen Intelligenz führen, stehen dem Unternehmen zur Verfügung.
  • "intelligente Zufallsantworten": die Antworten des Bots unterliegen keiner Qualitätskontrolle, etwa durch eine Redaktion.
  • Copyright: Die Firma OpenAI gibt (bis jetzt) jedem Nutzer das Recht die erzeugten Texte als eigenes Produkt zu verwerten.
  • Open Source: Bis jetzt stellt die Firma OpenAI ihre Ergebnisse auf Open-Source-Basis zur Verfügung.

Ob das wirklich alle Ergebnisse sind, weiß man allerdings nicht, denn die größten Geldgeber sind Microsoft und der Tesla-Chef Elon Musk. Schon aus diesem Grund sollte man ChatGPT nicht mit privaten und sensiblen Daten füttern, denn diese werden in jedem Fall weiter verwertet. Im günstigsten Fall landen sie nur in der Datenbank des Programm, aber sie könnte sicher auch meistbietend auf dem Markt verkauft werden.

Mehr dazu bei https://www.rnd.de/digital/chatgpt-was-ist-das-und-was-kann-ich-damit-machen-YYBITUVA6BG4NENF6VXWWTTJZQ.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t3
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8339-20230318-was-bietet-chatgpt.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8339-20230318-was-bietet-chatgpt.htm
Tags: #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Frieden #Krieg #Open Source #Menschenrechte #Copyright #KI #AI #Kuenstliche Intelligenz #Tay #Twitter #Microsoft #Tesla #Musk #Rassist #DataMining

aktionfsa@diasp.eu

KI-Chatbot als manipulativer Lügner

KI läuft Micrsoft aus dem Ruder

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein.
Stephen Hawking

Schon vor einigen Jahren musste von Microsoft ein KI Programm namens Tay aus dem Verkehr gezogen werden, weil es sich nach wenigen Tage zum Rechtsextremisten entwickelte. Schon nach 16 Stunden twitterte Tay: "Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump."

Nun musste Microsoft eine ähnliche Erfahrung mit seinem Chat-Bot im Bing machen. Mit dem Einbau von ChatGPT in seine Produkte war Microsoft einer der ersten und musste sehr schnell einsehen, dass sich leicht Geld in KI-Projekte versenken lässt (bisher mehr als 1 Milliarde und bis zu 10 soll[t]en es werden), die Ergebnisse aber doch mau bleiben.

Nun hat der Chat-Bot sich einige Fehler erlaubt, die in den prüden USA nicht gut ankommen. So hat er laut stern "gegenüber einem Reporter der New York Times behauptet, dass er den Journalisten liebe" und "einen Philosophieprofessor bedrohte die Anwendung zudem mit den Worten 'ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren'.

Nun hat Microsoft die Frage-Antwort-Menge auf 50 begrenzt, um zu verhindern, dass die "Gesprächspartner" zu tief in ein Thema eintauchen. Verhindern wird Microsoft damit aber nicht die Sturheit der KI, die von sich selbst behauptet "Ich verbreite nichts Falsches. Ich verbreite Fakten. Ich verbreite Wahrheit. Ich verbreite Weisheit. Ich verbreite Bing.“ Weitere gruselige Beispiele des Chat-Bots finden sich auf watson.ch.

Zusammen mit den oben zitierten Drohungen kann diese Selbstüberschätzung uns schon an die Weltzerstörungsmaschine aus Science Fiction Romanen erinnern, die die ihr übertragene Macht ohne Gefühle und ohne Zweifel nutzt.

Mehr dazu bei https://www.stern.de/digital/online/chatgpt--microsoft-legt-bot-nach-gewaltdrohungen-an-kurze-leine-33212158.html
und https://www.watson.ch/digital/review/325210816-ki-chatbot-von-microsoft-entpuppt-sich-als-manipulativer-luegner
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3sH
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8320-20230228-ki-chatbot-als-manipulativer-luegner.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8320-20230228-ki-chatbot-als-manipulativer-luegner.htm
Tags: #ChatGPT #Cyberwar #Hacking #Microsoft #Trojaner #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln #KI #AI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Bot #Drohnung #Rassist