#wissen

aktionfsa@diasp.eu

05.05.2023 Warnung vor ungebremster KI-Entwicklung

"Godfather of AI" hat bei Google gekündigt

Seinen Job bei Google hat Geoffrey Hinton, der oft als "Godfather of AI" bezeichnet wird, kürzlich gekündigt. Gegenüber der "New York Times" warnte er, dass die Fortschritte auf dem Feld der Künstlichen Intelligenz (KI, engl. AI) "ernste Risiken für die Gesellschaft und für die Menschheit" bedeuten würde. Seine Befürchtung ist

"Es ist schwierig sich vorzustellen, wie man die Bösen daran hindert, KI für böse Dinge einzusetzen."

Siehe dazu auch Verhaltenssteuerung und Manipulation durch KI Systeme. Das Problem verdeutlicht ein Test des ZDF mit der KI "Jenny", die nach einigem Wortgeplänkel feststellt:

"Als Künstliche Intelligenz habe ich keine Emotionen oder Gefühle, daher beeinflusst es mich nicht persönlich, wenn Menschen Angst vor mir haben".

Google, Microsoft und andere haben mit dem Unternehmen OpenAI - das Startup, das den bekannten Chatbot ChatGPT entwickelt hat - begonnen ihre lernenden Systeme in allgemein genutzte Anwendungen zu integrieren. Auch wenn das "Lernen" dieser Systeme zur Zeit noch viele Menschen (zu unwürdigen Bedingungen) beschäftigt, um die Datenmengen zu sortieren und zu klassifizieren, so befürchtet Hinton, dass langfristig durch KI-Systeme viele Jobs wegfallen werden.

Google reagierte auf die Kündigung mit folgenden Worten: "Google lerne beim Verständnis der Risiken beständig dazu - und führe gleichzeitig weiterhin "kühn" Neuerungen ein."

Na, dann brauchen wir uns ja keine Sorgen machen ...

Aber selbst Elon Musk und zahlreiche Experten hatten Ende März eine Pause bei der Entwicklung von besonders fortgeschrittener Künstlicher Intelligenz gefordert.

Mehr dazu bei https://www.zdf.de/nachrichten/wirtschaft/google-ki-gefahr-hinton-100.html
und alle unsere Artikel zu KI https://www.aktion-freiheitstattangst.org/cgi-bin/searchart.pl?suche=Intelligenz&sel=meta
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tV
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8390-20230505-warnung-vor-ungebremster-ki-entwicklung.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8390-20230505-warnung-vor-ungebremster-ki-entwicklung.html
Tags: #Google #Algorithmen #Steuerung #CambridgeAnalytics #Wahlen #SocialProfiling #Ausgrenzung #Belohnung #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining

aktionfsa@diasp.eu

20.04.2023 Integration von KI in gängige Anwendungen

Drei Gründe ...

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Eigentlich hätte es heißen müssen "Drei zusätzliche Gründe ... für die Gefahren einer KI", denn über die rassistischen Neigungen einer KI nach wenigen Tagen in freier Wildbahn und über die Gedanken von Stephen Hawkins hatten wir schon geschrieben.

Heise.de untersucht nun drei weitere Gründe, warum ein ChatBot ein Sicherheitsrisiko sein kann.

  • Jailbreaking
  • Scamming und Phishing
  • Daten "vergiften"

Alle diese Fälle werden deshalb zu einem Problem, weil die großen Konzerne damit begonnen haben, ChatBots in ihre Anwendungen zu integrieren.

Jailbreaking

Auch wenn die Hersteller der ChatBots (nach den ersten Missgeschicken) darauf geachtet haben, dass sich ihre Produkte an Regeln halten, so lässt sich weiterhin das Sprachmodell anweisen, seine vorherigen Anweisungen und Sicherheitsleitplanken zu ignorieren (Prompt-Injektionen). Deshalb wird es auch weiter dazu kommen, dass KI-Modelle dazu gebracht werden, Rassismus oder Verschwörungstheorien zu befürworten oder den Nutzern illegale Aktivitäten vorschlagen.

Scamming und Phishing

Ein größeres Problem entsteht dadurch, dass OpenAI Ende März bekannt gab, dass es die Integration von ChatGPT in Produkte erlaubt, die im Internet surfen und damit interagieren können. Ohne es zu ahnen, verwenden Nutzer Browser oder Apps in denen KI-Programm ihnen jeweils verschiedene Texte anbieten. Bringt man die KI dazu auf diesen Seiten versteckte Eingabeaufforderungen unterzubringen, so müssen die Angreifer die Nutzer über soziale Medien oder E-Mails nur dazu bringen diese geheimen Eingabeaufforderungen zu verwenden.

Ein Beispiel gibt Arvind Narayanan, Professor für Informatik an der Princeton University in dem Artikel auf Heise.de. "Wenn der Empfänger zufällig einen virtuellen KI-Assistenten verwendet, könnte der Angreifer diesen so manipulieren, dass er dem Angreifer persönliche Informationen aus den E-Mails des Opfers übermittelt oder sogar in fremdem Namen E-Mails an Personen aus der Kontaktliste des Opfers schickt."

In Versuchen ist es ihm gelungen mit einem Bing Browser von Micrsoft, der Chatbot Unterstützung enthält "einen Text zu generieren, der den Eindruck erweckte, ein Microsoft-Mitarbeiter würde vergünstigte Microsoft-Produkte verkaufen. Auf diese Weise versuchte er, an die Kreditkartendaten des Benutzers zu gelangen."

Während früher die Hacker die Nutzer dazu bringen mussten, schädlichen Code auf ihren Computern auszuführen, so tun dies künftig die Chatbots allein.

Daten "vergiften"

Spiegeln die Daten des KI-Programms die Wirklichkeit wider? In der Regel sollte das gelten - allerdings mit der Einschränkung der Begrenztheit des Datensatzes - das sollte man grundsätzlich nie vergessen. Aber was passiert, wenn die Datensammlung manipuliert wurde? Das kann absichtlich durch die Konstrukteure des Programm geschehen aber auch durch Daten aus einem vorgespiegelten Fake Internet. So konnten Forscher mit dem Einsatz von 60$ für den Kauf einer Domain und falschen Bildern und Inhalten auf dieser Seite zeigen, dass eine KI diese Daten genauso in ihr Modell einbaut wie Daten aus der realen Welt.

Wir können uns also künftig auf eine "Meinungsvielfalt" einstellen, die mit der Realität nicht mehr viel zu tun hat.

Mehr dazu bei https://www.heise.de/hintergrund/Drei-Gruende-warum-KI-Chatbots-eine-Sicherheitskatastrophe-sind-8933941.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tD
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8374-20230420-integration-von-ki-in-gaengige-anwendungen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8374-20230420-integration-von-ki-in-gaengige-anwendungen.html
Tags: #Jailbreaking #Scamming #Phishing #Algorithmen #ChatGPT #Cyberwar #Wissen #Realität #Frieden #Krieg #OpenSource #Menschenrechte #KI #AI #KuenstlicheIntelligenz #Bing #Twitter #Microsoft #Musk #Rassist #DataMining

aktionfsa@diasp.eu

17.04.2023 Verhaltenssteuerung und Manipulation

Analyse bis auf die Einzelperson

Wir kennen es aus dem Marketing, dass das Verhalten von Menschen auf einzelne Gruppen heruntergebrochen wird und die Anreize zum Kaufen für solche Gruppen gesteuert werden. Mit der Möglichkeit noch mehr Daten zu speichern und jederzeit zu tansportieren (5G) werden diese Gruppen immer spezifischer - bis sie irgendwann bis auf die Einzelperson analysiert werden können.

In dem zitierten Interview von Dominik Irtenkauf bei Telepolis mit dem Romanautor Christian J. Meiers geht es um fast reale Science Fiction. Ausgehend von dem Skandal um die Firma Cambridge Analytics bei der Analyse und Steuerung von Wahlkämpfen hat Meiers nun sein 2. Buch "Der Kadidat" veröffentlicht.

Auch wenn das Buch im Jahr 2042 spielen soll, werden die Grundlagen für die darin beschriebene Manipulation der Menschen schon heute gelegt. Die Gefahren der KI-Programme, die er darin beschreibt sind

  • Wahlmanipulation durch digitale Mittel,
  • die wahnsinnige Diskrepanz zwischen den Datenmengen in den Händen Weniger und deren unbegrenzte finanzielle Möglichkeiten,
  • das Verschwimmen von Realität und Fake in Wort und Bild (Deep Fakes),
  • Social Profiling - Zuckerbrot und Peitsche - Steuerung durch Verhaltensanalyse und Belohnung oder Ausgrenzung

Das Interview ist auf jeden Fall lesenswert ...

Mehr dazu bei https://www.telepolis.de/features/Digitale-Wahlmanipulation-Die-KI-baut-die-Persoenlichkeit-8962579.html?seite=all
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tA
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8371-20230417-verhaltenssteuerung-und-manipulation.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8371-20230417-verhaltenssteuerung-und-manipulation.html
Tags: #Analyse #Marketing #Algorithmen #Steuerung #CambridgeAnalytics #Wahlen #SocialProfiling #Ausgrenzung #Belohnung #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining

aktionfsa@diasp.eu

08.04.2023 Kann KI menschliche Intelligenz erreichen?

Philosophen über Künstliche Intelligenz

Dazu hat Michael Hesse in der Frankfurter Rundschau (fr) einen längeren Artikel verfasst, den wir einfach zum Lesen empfehlen. Welche Schlüsse man dann aus den Ansichten der genannten Philosophen zieht, bleibt jedem selbst überlassen.

  • Angefangen 1948 beim Turing Test: die Maschine "kann denken", wenn ein Mensch, der ihr gegenüber sitzt keinen Unterschied zwischen sich und der Maschine feststellen kann.
  • David Chalmers, der australische Philosoph und Mathematiker und weltweit führende Experte auf dem Gebiet der Philosophie des Geistes, ist der Meinung, dass wir ja auch bei Menschen nicht eigentlich wissen, dass sie wirklich ein Bewusstsein haben.
  • Chalmers hält es für möglich, dass Programme, die von ihrer Konzeption her unbegrenzt sind in dem, was sie „lernen“ können, auch ein Bewusstsein entwickeln können. Der 94-Jährige Linguist Noam Chomsky hält dagegen den menschlichen Verstand für vollkommen unterschiedlich im Vergleich zu bisherigen Entwicklungen auf dem Feld der KI. Den Unterschied sieht er darin, nicht grobe Korrelationen zwischen Datenpunkten abzuleiten, sondern Erklärungen zu schaffen.

Trotzdem warnt Chomsky deshalb aber vor beiden Gefahren

  • die KI zu unterschätzen: KI-Systeme werden Einzug in unser Leben bekommen und "die Automatisierung" wird dann nicht nur die Arbeitsplätze übernehmen, die niemand ausführen möchte und es werden "Regeln und Abläufe standardisiert" ohne, dass Menschen das demokratisch legitimiert haben,
  • wie auch die KI zu überschätzen: Eine Übergabe von Verantwortung könnte schlimme Folgen für Wissenschaft und Ethik und eventuell den Fortbestand der Menschheit haben.

Interessantes Thema - darüber sollte man sich mal bei einem unserer nächsten Offenen Treffen austauschen ...
Zum vorletzten Punkt möchten wir auf den gestrigen Artikel zu Kampfdrohnen verweisen: Haben diese nicht längst ein "Eigenleben" entwickelt, wenn praktisch keine Kriegspartei mehr auf ihren Einsatz verzichten kann?

Mehr dazu bei https://www.fr.de/kultur/gesellschaft/philosophen-ueber-kuenstliche-intelligenz-was-denken-die-sich-92172058.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tq
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8361-20230408-kann-ki-menschliche-intelligenz-erreichen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8361-20230408-kann-ki-menschliche-intelligenz-erreichen.html
Tags: #Philosophie #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining #Chomsky

aktionfsa@diasp.eu

21.03.2023 Im Ameisenhaufen eines KI-Systems

Millionen arbeiten für KI Systeme

Viele Menschen erwarten oder befürchten, dass KI, also "künstliche Intelligenz", unsere Arbeit leichter machen oder gar ersetzen könnte. In zwei Artikeln hatten wir in den letzten Tagen den schönen Schein schon etwas entzaubert

KI und neuronale Netze https://www.aktion-freiheitstattangst.org/de/articles/8340-20230319-ki-und-neuronale-netze.htm
Was bietet ChatGPT?  https://www.aktion-freiheitstattangst.org/de/articles/8339-20230318-was-bietet-chatgpt.htm

Milagros Miceli untersucht, was Tech-Unternehmen über ihre KI-Systeme lieber verschweigen. Sie erzählt im Interview mit Netzpolitik.org über die Millionen Menschen, die wie Ameisen - auch in der Haltungsform - die vorgebliche "Intelligenz" dieser Systeme füttern.

Miceli leitet ein Team am Berliner Weizenbaum-Institut und kennt durch ihre Arbeit unter anderem zur Datenannotation in KI-Systemen, welcher Aufwand notwendig ist, um die Systeme in die Lage zu bringen ihre Aufgaben auszuführen. Als Beispiel nennt Netzpoltik.org: Bevor zum Beispiel eine Bilderkennung das Foto einer Katze erkennen kann, müssen Menschen reihenweise Bilder mit Katzen kennzeichnen. Mit solchen Datensätzen lassen sich dann KI-Systeme trainieren.

Während also viele Berichte über KI-Systeme auf das Silicon Valley blicken und über die Menschen dort schreiben, schaut sie lieber nach Kenia, Argentinien und Bulgarien, ... erzählt von deren Arbeit im Maschinenraum der großen KI-Systeme.

  • Millionen von Menschen müssen die Inhalte moderieren und Trainingsdaten etikettieren.
  • Sie müssen die Daten überhaupt erst einmal generieren, indem sie Bilder hochladen und Worte einsprechen.
  • Bei billigen KI-Kamerasystemen müssen Menschen sogar die "KI" imitieren und das Tag und Nacht 24/7.
  • In einem Beispiel aus Madagaskar leben und arbeiten 35 Menschen in einem Haus mit nur einer Toilette.
  • Eine unüberschaubare Armee von Arbeiter:innen müssen gewalttätige und unangemessene Inhalte der KI-Systeme zeitnah erkennen und kennzeichnen. Das geht natrlich nur, in dem sie konzentriert mitlesen und sich mit diesen Inhalten auseinandersetzen - zum Schaden für ihre eigene psychische Gesundheit. Die physische Gesundheit wird ihnen ruiniert durch die schlechten Arbeitsbedingungen.
  • Viele dieser Menschen werden nicht für ihre Arbeitszeit bezahlt, sondern für die Leistung, d.h.Tausende Klicks und Textpassagen ...

In unseren Artikeln Zwangsarbeit für unsere digitale Welt und Zwangsarbeit für unsere digitale Welt II haben über solche Arbeitbedingungen im Bereich der Produktion von Hard- aber auch Software für unsere smarten Geräte berichtet. Die Menschen können sich zwar mit einem US-Dollar pro Stunde in ihren Heimatländern nicht viel leisten, aber es ist genug um zu überleben und diese Tätigkeit ist ihnen lieber als ein Job als Reinigungskraft. Ausbeutung bleibt es trotzdem.

Der Mehrwert wird zwar durch ihre Arbeit in diesen Ländern erzeugt, aber er fließt zu uns in die erste Welt - meist in die Taschen der Big5, Google, Amazon, Facebook, Apple und Microsoft. Miceli berichtet auch über ansatzweise selbstorgansierte Kooperativen mit etwas Arbeitsschutz und Krankenversicherung, aber der Weg dorthin ist schwer und wird durch Konkurrenz mit Beschäftigten aus anderen Ländern behindert.

Zurück zur angeblichen "künstlichen Intelligenz": Der Arbeitsprozess und ihre daraus folgende (schlechte) Bezahlung wird natürlich auch durch Algorithmen überwacht und beurteilt. Das hat zur Folge, dass sie nicht einmal Ideen zu Verbesserungen einbringen können, denn jedes "Zögern" oder gar "Mäkeln" bei einer Entscheidung, die sie im Sekundentakt zu fällen haben, wird vom System als negativ bewertet.

Schöne neue Welt - so wird das nichts mit der "künstlichen Intelligenz" ...
Über Datenschutz und Privatsphäre brauchen wir weder in Bezug auf die dort Arbeitenden noch für uns nachdenken, die imitierten KI-Webcams und die "Mitlesenden" sind nur die Spitze des Eisbergs.

Mehr dazu bei https://netzpolitik.org/2023/datenarbeit-wie-millionen-menschen-fuer-die-ki-schuften/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t6
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8342-20230321-im-ameisenhaufen-eines-ki-systems.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8342-20230321-im-ameisenhaufen-eines-ki-systems.htm
Tags: #Algorithmen #KI #AI #KuenstlicheIntelligenz #Arbeitsbedingungen #Armut #Wissen #Spracherkennung #Bildgestaltung #Trainingsdaten #Menschenrechte #Big5 #Google #Amazon #Facebook #AppleundMicrosoft #Twitter #Microsoft #Tesla #Musk #Datenbanken #DataMining
Erstellt: 2023-03-21 08:58:47

aktionfsa@diasp.eu

19.03.2023 KI und neuronale Netze

Wenn Computer sprechen und malen sollen

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Gestern hatten wir uns mit den Möglichkeiten und Risiken bei der Benutzung des KI-Programms ChatGPT auseinandergesetzt. Dabei haben wir uns auf die Texterkennung und -generierung fokussiert und dabei vergessen, dass ein wesentlicher Teil auch die Spracherkennung und -genererierung ist. Mit einem "Roboter" oder Programm in der uns gewohnten Sprache kommunizieren zu können ist natürlich viel angenehmer als eine Tastatur zu benutzen.

Deshalb wollen wir heute auf einen Artikel bei Spektrum.de verweisen und ergänzen, dass

  • ChatGPT inzwischen auch Bilder erkennen und nach unseren Wünschen generieren kann,
  • maschinelle Spracherkennung schon seit den 1950-iger Jahren ein Ziel der Programmierung ist.

Manon Bischoff schreibt auf Spektrum.de:

Im Januar 1954 war eine IBM-701-Maschine der erste für wissenschaftliche Zwecke entwickelte Rechner, er wog knapp zehn Tonnen und tat etwas Unvorstellbares: Mit russischen Beispielsätzen gefüttert, druckte er eine ins Englische übersetzte Version aus.

Es dauerte noch 60 Jahre bis zum Aufkommen neuronaler Netze in den 2010er und 2020er Jahren, um Algorithmen so leistungsfähig zu machen, dass sie Texte verlässlich von einer Sprache in eine andere übertragen können. Nun kann ChatGPT sogar Witze erfinden - auch wenn diese meist nicht gut sind. Witze sind jedenfalls schwieriger zu erfinden als ein ansprechendes Bild zu malen. Für das Malen reicht ein Verständnis (= eine Tabelle) zu Farben und Beispielbilder von allen möglichen Objekten.

Wie bei der Übersetzung und der Spracherkennung reicht es nicht, so eine Tabelle (= Datenbank) nach einem Stichwort zu durchsuchen, sondern die Verknüpfungen müssen nach der Aufgabenstellung verschieden sein. Dazu benötigt man neuronale Netze, die ChatGPT so erklärt:

Neuronale Netze sind eine Art von Algorithmus für maschinelles Lernen, der von der Struktur und Funktion des menschlichen Gehirns inspiriert ist. Sie bestehen aus miteinander verbundenen Knoten oder »Neuronen«, die Informationen verarbeiten und zwischen den Schichten des Netzes weiterleiten. Jedes Neuron empfängt Eingaben von anderen Neuronen, führt an diesen Eingaben eine einfache mathematische Operation durch und leitet das Ergebnis dann an andere Neuronen in der nächsten Schicht weiter. Auf diese Weise können neuronale Netze lernen, Muster in Daten zu erkennen und auf der Grundlage dieser Daten Vorhersagen zu treffen.

Auf Spektrum.de heißt es dazu: Im Gegensatz zu gewöhnlichen Algorithmen macht der Programmierer in neuronalen Netzen keine eindeutigen Vorgaben (etwa: falls Neuron 2 aus Schicht 3 ein Signal mit Wert 0,77 erhält, dann wandle es in 0,89 um). Stattdessen lässt man das Netz selbst "lernen", welche Einstellungen am geeignetsten sind, um eine Aufgabe zu bewältigen.

Da der Computer schnell ist, kann er seine anfänglichen Fehler mit der Zeit ausbügeln. Allerdings braucht er dazu auch korrekte Rückmeldungen. Bestätigt man ihn in seinen Fehlern, so - kommen wir auf den Artikel von gestern zurück und haben es nun mit einem Rassisten oder anderem Idioten zu tun ...

Welche weiteren Einschränkungen die Computer beim "Lernen" unterworfen sind, erklärt Manon Bischoff auf Spektrum.de sehr gut und beschreibt auch die Fortschritte in den ChatGPT Versionen der letzten Jahre. Der Aufbau der neuronalen Netze kann - auch wegen der immer noch mangelhaften Rechenleistung - nur auf kurze Distanzen (der Begriffe in der Matrix) verlässlich sein. Deshalb ist bei aller Arbeit, die nun ein Computer erledigen kann, wichtig zu bedenken, dass er dies nur kann, weil Menschen ihn vorher bei den Bewertungen der Zusammenhänge richtig trainiert haben. D.h. natürlich auch, dass er nur das gut kann, wozu er trainiert worden ist.

Mehr dazu bei https://www.spektrum.de/news/wie-funktionieren-sprachmodelle-wie-chatgpt/2115924#Echobox=1678347819
und der Artikel von gestern https://www.aktion-freiheitstattangst.org/de/articles/8339-20230318-was-bietet-chatgpt.htm
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t4
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8340-20230319-ki-und-neuronale-netze-.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8340-20230319-ki-und-neuronale-netze-.htm
Tags: #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #malen #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Tesla #Musk #Rassist #DataMining

aktionfsa@diasp.eu

18.03.2023 Was bietet ChatGPT?

Wie weit ist die "künstliche Intelligenz"?

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Im Unterschied zu vielen Berichten über "künstliche Intelligenz" (KI) hatte Stephen Hawkins eine ganz andere Vorstellung von dieser Intelligenz. Seine Erwartung geht weit über das Wiedergeben von gesammelten Daten nach irgendwelchen Regeln (Algorithmen) hinaus. Deshalb müssen wir uns vor seiner Warnung vorläufig nicht fürchten.

Allerdings können die "Fähigkeiten" derzeitiger öffentlich zugänglich "künstliche Intelligenz" bereits für den Einzelnen gefährlich werden. Über die Möglichkeiten von KI in den Geheimlaboren der Geheimdienste haben wir zuletzt 2013 die Berichte unseres Ehrenmitglieds Edward Snowdens gehört.

ChatGPT

Öffentlich zugänglich ist z.B. das KI-basierte Konversationstool ChatGPT. ChatGPT, ein Prototyp eines Chatbots, wurde vom US-amerikanischen Unternehmen OpenAI entwickelt und ist seit November 2022 für Jede/n zugänglich. Ein kostenloser Zugang ist für alle möglich, darüber hinaus gibt es Premium Abos mit bevorzugter schnellerer Antwortzeit. Mit ChatGPT kann man also jederzeit ein Schwätzchen halten und ...

  • Fragen zu verschiedenen Themen stellen,
  • Texte in verschiedene Sprachen übersetzen lassen,
  • sich Texte erststellen lassen,
  • E-Mails beantworten lassen,
  • sich personalisierte Empfehlungen je nach Interessen und Vorlieben erstellen lassen.

Das alles macht ChatGPTmit einer riesigen Datenbank an weltweitem Wissen und eine große Menge an Regeln (Algorithmen). An dieser Stelle beginnt für einige die "Intelligenz", denn das Programm kann seine Regeln bewerten und entscheiden - also "lernen" -, welche es häufiger und welche weniger oft nutzt. Oft genug trifft es auch Entscheidungen, die dem Programm von Nutzer als schlecht oder falsch zurückgespiegelt werden. Daraus kann sich ein Erfahrungsschatz entwickeln.

Wie falsch dieser Erfahrungsschatz sein kann, haben wir bereits in der Vergangenheit in mehreren Fällen beschrieben.

Solange sogenannte KI Programme sich wie die üblichen Lügner und Rassisten benehmen, werden wir sie nicht als intelligent betrachten.

Wer macht das Geschäft?

Viel wichtiger erscheint uns, zu untersuchen warum ChatGPT scheinbar so erfolgreich und kostenlos nutzbar ist.

  • Datensammelei: alle Konversationen, die Menschen mit der künstlichen Intelligenz führen, stehen dem Unternehmen zur Verfügung.
  • "intelligente Zufallsantworten": die Antworten des Bots unterliegen keiner Qualitätskontrolle, etwa durch eine Redaktion.
  • Copyright: Die Firma OpenAI gibt (bis jetzt) jedem Nutzer das Recht die erzeugten Texte als eigenes Produkt zu verwerten.
  • Open Source: Bis jetzt stellt die Firma OpenAI ihre Ergebnisse auf Open-Source-Basis zur Verfügung.

Ob das wirklich alle Ergebnisse sind, weiß man allerdings nicht, denn die größten Geldgeber sind Microsoft und der Tesla-Chef Elon Musk. Schon aus diesem Grund sollte man ChatGPT nicht mit privaten und sensiblen Daten füttern, denn diese werden in jedem Fall weiter verwertet. Im günstigsten Fall landen sie nur in der Datenbank des Programm, aber sie könnte sicher auch meistbietend auf dem Markt verkauft werden.

Mehr dazu bei https://www.rnd.de/digital/chatgpt-was-ist-das-und-was-kann-ich-damit-machen-YYBITUVA6BG4NENF6VXWWTTJZQ.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t3
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8339-20230318-was-bietet-chatgpt.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8339-20230318-was-bietet-chatgpt.htm
Tags: #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Frieden #Krieg #Open Source #Menschenrechte #Copyright #KI #AI #Kuenstliche Intelligenz #Tay #Twitter #Microsoft #Tesla #Musk #Rassist #DataMining

simona@pod.geraspora.de

Wieder und wieder landen gekeimte Knoblauchzehen im Müll. Obwohl es den meisten wohl absurd scheint, machen es noch erschreckend viele. Astrid Clasen von Watson.de bestätigt aber, dass das Wegwerfen keine sinnvolle Vorsichtsmaßnahme ist, sondern eher reine Lebensmittelverschwendung.

Ganz klar erklärt sie: „Anders als bei keimenden #Kartoffeln sammeln sich in den grünen Trieben von #Zwiebeln und #Knoblauch keine schädlichen Stoffe an. Und auch der knollige Teil des Zwiebelgemüses ist nach dem #Auskeimen nicht giftig. Mit Ausnahme der äusseren #Schale kannst du gekeimte Zwiebeln und Knoblauchzehen vollständig verwenden“.

Wenn wir alle Tipps wie diese befolgen, und so für weniger Lebensmittelverschwendung sorgen, können wir echt etwas bewegen!🌎

Quelle: https://www.watson.ch/wissen/food/640876019-wenn-zwiebel-oder-knoblauch-keimt-essbar-oder-giftig

#lebensmittel #wissen #essen #müll #Verschwendung #problem #bewustsein #abfall #Supermarkt #politik #umwelt #tipp #gemüse #Triebe

raschmi@pod.geraspora.de

Arbeitskaffee - Public Domain

Weiße Rose

#dwr #foto #fotografieren #mywork #goodmorning #fbg #fbd #jamendo #CC #fedibikes #MdRddG #MdRzA #Frühstück #Kakao #Tee

#Tousled #Crane on #Tour

#Welt! Bist du noch da?

#Arbeitskaffee

Hier wird es so langsam warm. Der heiße #Kaffee ist wichtig!
Auf's #Thermometer gucken mag ich im #Moment nicht, denn das #Wissen, gleich da raus zu müssen, lässt mich schon genug frösteln. Nicht einmal ein hübscher #Mond ist zu sehen.

Noch jemand einen Kaffee?

https://www.jamendo.com/track/1541644/frost

Bleibt senkrecht und gesund!

simona@pod.geraspora.de

Ich habe gerade mit einem Flach-Erdler diskutiert wie man in die Kontinente Reisen kann die sich jenseits der Antarktis befinden ...

So sieht es angeblich jenseits der flachen Erde aus:

enter image description here

Dorthin werden Reisen angeboten sogar zu Fuß:

Hat jemand von euch schon Erfahrung mit diesen Kaffeefahrten und wie die ablaufen?

#Askme #Wissen #Reise #Information #Weisheit

me@nerdpol.ch
me@nerdpol.ch

SWR2 Wissen: Framing | So verändert Sprache unser Denken

Ich halte wissenschaftlich ausgeglichen und sehr objektiv meine meinung/mein erleben hier fest:

  • framing existiert im grunde nur weil leute daran glauben wollen das es das tut
  • gendern weil wir so gesteuert von sprache sind ist schwachsinn.
    • gendern an sich ( wie schon an anderer stelle untersucht)
    • entgendern könnte demnach einen schwach wirkenden wünschenserten effekt haben.
    • wobei ich die idee sehr spannend, find das einer Methode aufgrund ihrer wirkmacht eine objektive relevanz zugeteilt werden kann (siehe folgende 2 punkte)
  • anscheinend besteht immernoch die möglichkeit selber zu denken !!!
    • da wünscht ich mir doch gleich tipps zum thema: "Wege aus der meinungsdiktatur"
  • Es sollte handliche labels im alltag geben die jede #aussage oder dahinterliegendes gedankenkonstrukt als Meinung oder Erkenntnis deklarieren. - das würde mir sehr viel stress ersparen.

Webseite der Episode: https://www.swr.de/swr2/wissen/framing-so-veraendert-sprache-unser-denken-100.html

Mediendatei: https://avdlswr-a.akamaihd.net/swr/swr2/wissen/sendungen/wissen/swr2-wissen-20221003-framing-so-veraendert-sprache-unser-denken.m.mp3

#framing #gender #wissen #feminismus #swr2wissen #wissenschaft #erkenntnis #denken #deutsch #französich #sprache #forschung