#kreativ

diggers@diaspora-fr.org

Ist das die neue #Propaganda von der Stange oder ist das etwa besonders #kreativ?

Hier wurde wirklich nichts ausgelassen, von dem Fummel der Moderatorin bis zur Gegenüberstellung von #jung und und mittel-alt, Piercing und Brille schlang und Doppelkinnansatz.

https://odysee.com/@polytrichum:8/Tagesschau-bei-peinlichem-Fake-erwischt:3

#Propaganda #ARD #WDR #Medien #reich #arm #Gesellschaft #Manipulation #Actuarium #Klima #fake #Penny

aktionfsa@diasp.eu

05.05.2023 Warnung vor ungebremster KI-Entwicklung

"Godfather of AI" hat bei Google gekündigt

Seinen Job bei Google hat Geoffrey Hinton, der oft als "Godfather of AI" bezeichnet wird, kürzlich gekündigt. Gegenüber der "New York Times" warnte er, dass die Fortschritte auf dem Feld der Künstlichen Intelligenz (KI, engl. AI) "ernste Risiken für die Gesellschaft und für die Menschheit" bedeuten würde. Seine Befürchtung ist

"Es ist schwierig sich vorzustellen, wie man die Bösen daran hindert, KI für böse Dinge einzusetzen."

Siehe dazu auch Verhaltenssteuerung und Manipulation durch KI Systeme. Das Problem verdeutlicht ein Test des ZDF mit der KI "Jenny", die nach einigem Wortgeplänkel feststellt:

"Als Künstliche Intelligenz habe ich keine Emotionen oder Gefühle, daher beeinflusst es mich nicht persönlich, wenn Menschen Angst vor mir haben".

Google, Microsoft und andere haben mit dem Unternehmen OpenAI - das Startup, das den bekannten Chatbot ChatGPT entwickelt hat - begonnen ihre lernenden Systeme in allgemein genutzte Anwendungen zu integrieren. Auch wenn das "Lernen" dieser Systeme zur Zeit noch viele Menschen (zu unwürdigen Bedingungen) beschäftigt, um die Datenmengen zu sortieren und zu klassifizieren, so befürchtet Hinton, dass langfristig durch KI-Systeme viele Jobs wegfallen werden.

Google reagierte auf die Kündigung mit folgenden Worten: "Google lerne beim Verständnis der Risiken beständig dazu - und führe gleichzeitig weiterhin "kühn" Neuerungen ein."

Na, dann brauchen wir uns ja keine Sorgen machen ...

Aber selbst Elon Musk und zahlreiche Experten hatten Ende März eine Pause bei der Entwicklung von besonders fortgeschrittener Künstlicher Intelligenz gefordert.

Mehr dazu bei https://www.zdf.de/nachrichten/wirtschaft/google-ki-gefahr-hinton-100.html
und alle unsere Artikel zu KI https://www.aktion-freiheitstattangst.org/cgi-bin/searchart.pl?suche=Intelligenz&sel=meta
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tV
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8390-20230505-warnung-vor-ungebremster-ki-entwicklung.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8390-20230505-warnung-vor-ungebremster-ki-entwicklung.html
Tags: #Google #Algorithmen #Steuerung #CambridgeAnalytics #Wahlen #SocialProfiling #Ausgrenzung #Belohnung #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining

aktionfsa@diasp.eu

17.04.2023 Verhaltenssteuerung und Manipulation

Analyse bis auf die Einzelperson

Wir kennen es aus dem Marketing, dass das Verhalten von Menschen auf einzelne Gruppen heruntergebrochen wird und die Anreize zum Kaufen für solche Gruppen gesteuert werden. Mit der Möglichkeit noch mehr Daten zu speichern und jederzeit zu tansportieren (5G) werden diese Gruppen immer spezifischer - bis sie irgendwann bis auf die Einzelperson analysiert werden können.

In dem zitierten Interview von Dominik Irtenkauf bei Telepolis mit dem Romanautor Christian J. Meiers geht es um fast reale Science Fiction. Ausgehend von dem Skandal um die Firma Cambridge Analytics bei der Analyse und Steuerung von Wahlkämpfen hat Meiers nun sein 2. Buch "Der Kadidat" veröffentlicht.

Auch wenn das Buch im Jahr 2042 spielen soll, werden die Grundlagen für die darin beschriebene Manipulation der Menschen schon heute gelegt. Die Gefahren der KI-Programme, die er darin beschreibt sind

  • Wahlmanipulation durch digitale Mittel,
  • die wahnsinnige Diskrepanz zwischen den Datenmengen in den Händen Weniger und deren unbegrenzte finanzielle Möglichkeiten,
  • das Verschwimmen von Realität und Fake in Wort und Bild (Deep Fakes),
  • Social Profiling - Zuckerbrot und Peitsche - Steuerung durch Verhaltensanalyse und Belohnung oder Ausgrenzung

Das Interview ist auf jeden Fall lesenswert ...

Mehr dazu bei https://www.telepolis.de/features/Digitale-Wahlmanipulation-Die-KI-baut-die-Persoenlichkeit-8962579.html?seite=all
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tA
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8371-20230417-verhaltenssteuerung-und-manipulation.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8371-20230417-verhaltenssteuerung-und-manipulation.html
Tags: #Analyse #Marketing #Algorithmen #Steuerung #CambridgeAnalytics #Wahlen #SocialProfiling #Ausgrenzung #Belohnung #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining

aktionfsa@diasp.eu

08.04.2023 Kann KI menschliche Intelligenz erreichen?

Philosophen über Künstliche Intelligenz

Dazu hat Michael Hesse in der Frankfurter Rundschau (fr) einen längeren Artikel verfasst, den wir einfach zum Lesen empfehlen. Welche Schlüsse man dann aus den Ansichten der genannten Philosophen zieht, bleibt jedem selbst überlassen.

  • Angefangen 1948 beim Turing Test: die Maschine "kann denken", wenn ein Mensch, der ihr gegenüber sitzt keinen Unterschied zwischen sich und der Maschine feststellen kann.
  • David Chalmers, der australische Philosoph und Mathematiker und weltweit führende Experte auf dem Gebiet der Philosophie des Geistes, ist der Meinung, dass wir ja auch bei Menschen nicht eigentlich wissen, dass sie wirklich ein Bewusstsein haben.
  • Chalmers hält es für möglich, dass Programme, die von ihrer Konzeption her unbegrenzt sind in dem, was sie „lernen“ können, auch ein Bewusstsein entwickeln können. Der 94-Jährige Linguist Noam Chomsky hält dagegen den menschlichen Verstand für vollkommen unterschiedlich im Vergleich zu bisherigen Entwicklungen auf dem Feld der KI. Den Unterschied sieht er darin, nicht grobe Korrelationen zwischen Datenpunkten abzuleiten, sondern Erklärungen zu schaffen.

Trotzdem warnt Chomsky deshalb aber vor beiden Gefahren

  • die KI zu unterschätzen: KI-Systeme werden Einzug in unser Leben bekommen und "die Automatisierung" wird dann nicht nur die Arbeitsplätze übernehmen, die niemand ausführen möchte und es werden "Regeln und Abläufe standardisiert" ohne, dass Menschen das demokratisch legitimiert haben,
  • wie auch die KI zu überschätzen: Eine Übergabe von Verantwortung könnte schlimme Folgen für Wissenschaft und Ethik und eventuell den Fortbestand der Menschheit haben.

Interessantes Thema - darüber sollte man sich mal bei einem unserer nächsten Offenen Treffen austauschen ...
Zum vorletzten Punkt möchten wir auf den gestrigen Artikel zu Kampfdrohnen verweisen: Haben diese nicht längst ein "Eigenleben" entwickelt, wenn praktisch keine Kriegspartei mehr auf ihren Einsatz verzichten kann?

Mehr dazu bei https://www.fr.de/kultur/gesellschaft/philosophen-ueber-kuenstliche-intelligenz-was-denken-die-sich-92172058.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tq
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8361-20230408-kann-ki-menschliche-intelligenz-erreichen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8361-20230408-kann-ki-menschliche-intelligenz-erreichen.html
Tags: #Philosophie #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining #Chomsky

aktionfsa@diasp.eu

19.03.2023 KI und neuronale Netze

Wenn Computer sprechen und malen sollen

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Gestern hatten wir uns mit den Möglichkeiten und Risiken bei der Benutzung des KI-Programms ChatGPT auseinandergesetzt. Dabei haben wir uns auf die Texterkennung und -generierung fokussiert und dabei vergessen, dass ein wesentlicher Teil auch die Spracherkennung und -genererierung ist. Mit einem "Roboter" oder Programm in der uns gewohnten Sprache kommunizieren zu können ist natürlich viel angenehmer als eine Tastatur zu benutzen.

Deshalb wollen wir heute auf einen Artikel bei Spektrum.de verweisen und ergänzen, dass

  • ChatGPT inzwischen auch Bilder erkennen und nach unseren Wünschen generieren kann,
  • maschinelle Spracherkennung schon seit den 1950-iger Jahren ein Ziel der Programmierung ist.

Manon Bischoff schreibt auf Spektrum.de:

Im Januar 1954 war eine IBM-701-Maschine der erste für wissenschaftliche Zwecke entwickelte Rechner, er wog knapp zehn Tonnen und tat etwas Unvorstellbares: Mit russischen Beispielsätzen gefüttert, druckte er eine ins Englische übersetzte Version aus.

Es dauerte noch 60 Jahre bis zum Aufkommen neuronaler Netze in den 2010er und 2020er Jahren, um Algorithmen so leistungsfähig zu machen, dass sie Texte verlässlich von einer Sprache in eine andere übertragen können. Nun kann ChatGPT sogar Witze erfinden - auch wenn diese meist nicht gut sind. Witze sind jedenfalls schwieriger zu erfinden als ein ansprechendes Bild zu malen. Für das Malen reicht ein Verständnis (= eine Tabelle) zu Farben und Beispielbilder von allen möglichen Objekten.

Wie bei der Übersetzung und der Spracherkennung reicht es nicht, so eine Tabelle (= Datenbank) nach einem Stichwort zu durchsuchen, sondern die Verknüpfungen müssen nach der Aufgabenstellung verschieden sein. Dazu benötigt man neuronale Netze, die ChatGPT so erklärt:

Neuronale Netze sind eine Art von Algorithmus für maschinelles Lernen, der von der Struktur und Funktion des menschlichen Gehirns inspiriert ist. Sie bestehen aus miteinander verbundenen Knoten oder »Neuronen«, die Informationen verarbeiten und zwischen den Schichten des Netzes weiterleiten. Jedes Neuron empfängt Eingaben von anderen Neuronen, führt an diesen Eingaben eine einfache mathematische Operation durch und leitet das Ergebnis dann an andere Neuronen in der nächsten Schicht weiter. Auf diese Weise können neuronale Netze lernen, Muster in Daten zu erkennen und auf der Grundlage dieser Daten Vorhersagen zu treffen.

Auf Spektrum.de heißt es dazu: Im Gegensatz zu gewöhnlichen Algorithmen macht der Programmierer in neuronalen Netzen keine eindeutigen Vorgaben (etwa: falls Neuron 2 aus Schicht 3 ein Signal mit Wert 0,77 erhält, dann wandle es in 0,89 um). Stattdessen lässt man das Netz selbst "lernen", welche Einstellungen am geeignetsten sind, um eine Aufgabe zu bewältigen.

Da der Computer schnell ist, kann er seine anfänglichen Fehler mit der Zeit ausbügeln. Allerdings braucht er dazu auch korrekte Rückmeldungen. Bestätigt man ihn in seinen Fehlern, so - kommen wir auf den Artikel von gestern zurück und haben es nun mit einem Rassisten oder anderem Idioten zu tun ...

Welche weiteren Einschränkungen die Computer beim "Lernen" unterworfen sind, erklärt Manon Bischoff auf Spektrum.de sehr gut und beschreibt auch die Fortschritte in den ChatGPT Versionen der letzten Jahre. Der Aufbau der neuronalen Netze kann - auch wegen der immer noch mangelhaften Rechenleistung - nur auf kurze Distanzen (der Begriffe in der Matrix) verlässlich sein. Deshalb ist bei aller Arbeit, die nun ein Computer erledigen kann, wichtig zu bedenken, dass er dies nur kann, weil Menschen ihn vorher bei den Bewertungen der Zusammenhänge richtig trainiert haben. D.h. natürlich auch, dass er nur das gut kann, wozu er trainiert worden ist.

Mehr dazu bei https://www.spektrum.de/news/wie-funktionieren-sprachmodelle-wie-chatgpt/2115924#Echobox=1678347819
und der Artikel von gestern https://www.aktion-freiheitstattangst.org/de/articles/8339-20230318-was-bietet-chatgpt.htm
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t4
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8340-20230319-ki-und-neuronale-netze-.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8340-20230319-ki-und-neuronale-netze-.htm
Tags: #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #malen #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Tesla #Musk #Rassist #DataMining