#algorithmen

spektrum@anonsys.net

Katharina Zweig betrachtet in ihrem informativen und anregenden Buch die Entscheidungsfindung bei künstlichen Intelligenzen und fragt nach ihrer Verantwortung. Eine Rezension

Wie entscheidet eine künstliche Intelligenz? Und was bedeutet das für ihren Einsatz? Dieses anregende Buch gewährt wertvolle Einblicke. Eine Rezension (Rezension zu Die KI war's! von Katharina Zweig)#künstlicheintelligenz #ki #chtagpt #bot #chatbot #artificialintelligence #AI #software #algorithmen #internet #sozioformatik #daten #bigdata #digitalisierung #demokratie #sozialemedien #gesichtserkennung #fingerabdruck #ITTech #Kultur #PsychologieHirnforschung
»Die KI war's!«: Wenn die künstliche Intelligenz den Kredit verweigert

aktionfsa@diasp.eu

###09.12.2023 Rahmen für KI-Act steht
Grundzüge können noch aufgeweicht werden

Nach 38 Stunden haben sich die Unterhändler von Europaparlament und EU-Staaten nun auf Grundzüge des "AI Act" geeinigt. Würde es in diesem Tempo weitergehen, dann hätte die EU als erste auf der Welt eine Regelung zur künstlichen Intelligenz vorgelegt. Die ebenfalls laufende Diskussion in den USA steckt noch in den Anfängen und ist - wie üblich - viel offener gegenüber den Wünschen der entsprechenden Lobby.

Positiv und negativ

Den vorliegenden Rahmen zu bewerten ist noch nicht endgültig möglich, weil in den weiteren Verhandlungen noch viele erreichte Punkte durch Formulierungen aufgeweicht werden können. Relativ fest stehen bislang folgende Punkte

  • Die Entwickler müssen die Qualität der für die Entwicklung der Algorithmen verwendeten Daten gewährleisten und sicherstellen.
  • Die KI-Entwicklung darf keine Urheberrechte verletzen.
  • Durch Künstliche Intelligenz geschaffene Texte, Bilder und Töne müssen entsprechend markiert werden.
  • Die Regeln für biometrische Gesichtserkennung durch KI, die eigentlich völlig verboten werden sollte, kann zu Zwecken der nationalen Sicherheit eingesetzt werden. Auch wenn sich dies auf "konkrete Bedrohungen" beschränkt wissen, wir, dass solche Regelungen künftig verallgemeintert werden können.
  • Für "risikoreiche" Anwendungen, etwa bei kritischer Infrastruktur, Sicherheitsbehörden und öffentlicher Personalverwaltung sollen "verschärfte Regelungen" gelten.

Vor 3 Wochen berichteten wir über die Vorbehalte von Deutschland und Frankreich gegen die Vorschläge zum KI-Act. Beide Länder hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basis-Technologie an sich. In den sogenannten Basismodelle, wie z.B. Chat-GPT, steckt die Wissensbasis und diese möchten die beiden Länder nicht aus Europa vertreiben. Auch Digital- und Verkehrsminister Volker Wissing appelliert, wie tagesschau.de schreibt, an die EU, international abgestimmt vorzugehen und "keinen Alleingang" zu wagen. So gibt es Befürchtungen, Start-Up-Unternehmen wie Aleph Alpha aus Deutschland und Mistral AI in Frankreich könnten in ihrer Entwicklung behindert werden.

Bei diesen Randgefechten verschwinden oft die für die Privatsphäre des Einzelnen wichtigen Punkte, wie die nun doch erlaubte Nutzung biometrischer Gesichtserkennung oder die Verwendung von KI bei Ermittlungen in Sicherheitsbehörden. Wir werden die Diskussion weiter beobachten ...

Mehr dazu bei https://www.spiegel.de/netzwelt/netzpolitik/ai-act-eu-erzielt-einigung-auf-regeln-fuer-kuenstliche-intelligenz-a-54d0ff03-d275-4c3a-b1b9-c491a0a258cd
und https://www.tagesschau.de/ausland/europa/eu-kuenstliche-intelligenz-regulierung-100.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xL
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8613-20231209-rahmen-fuer-ki-act-steht.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8613-20231209-rahmen-fuer-ki-act-steht.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Rasterfahndung

aktionfsa@diasp.eu

18.11.2023 KI-Act droht zu scheitern

Frankreich und Deutschland gegen strikte Regulierung

Eigentlich war man sich einig, dass die Regulierung künstlicher Intelligenz (KI) durch eine EU Verordnung (KI-Act) noch vor den Europawahlen im nächsten Jahr verabschiedet werden sollte. Nun stecken die Vorgespräche, die sogeannten Trilog Verhandlungen zwischen Rat, Parlament und Komission in einer Sackgasse.

Heise.de schreibt: Hauptstreitpunkt ist die Regulierung von "General Purpose AI Models" – also großen Sprachmodellen wie Llama 2 oder GPT-4, weil sich Frankreich und Deutschland dagegen ausprechen. Das ursprüngliche Ziel war

  • hochgefährliche Anwendungen, wie zum Beispiel Echtzeit-Biometrie, werden komplett verboten,
  • Hochrisiko-Anwendungen, wo die KI in medizinische Bereiche, in die Justiz oder Strafverfolgung eingreifen, werden streng reguliert,
  • andere nur ab und an kontrolliert.

Nun sprechen sich Frankreich und Deutschland dagegen aus die besonders "mächtigen" Sprachmodelle mit Audits durch eine noch zu schaffende EU-Behörde zu überwachen und zu regulieren. Die Befürchtung ist, dass solche Regulierungen innovative Start-ups abwürgen könnten. Dabei ging es bisher eher um die "Großen" - und bei den Großen ist eher zu befürchten, dass die "zu schaffende neue Behörde" von der Macht dieser Großen einfach eingewickelt und die Kontrolle zu einem bloßen Schaulaufen wird.

Wenn es nun bis zur Europawahl nichts wird, sollte man die Zeit nutzen, um die Risiken genauer zu spezifizieren. Dazu gehören neben Datenschutz, rechtlichen, Haftungs- und Copyright Fragen auch die unerträglichen Arbeitsbedingungen der Menschen die die KI trainieren, der immense Stromverbrauch der KI. Fragen der Diskriminierung von Frauen und Menschen, die nicht weiß sind, sind bekannt aber noch längst ist nicht klar, wie sie gelöst werden können.

Mehr dazu bei https://www.heise.de/hintergrund/AI-Act-KI-Gesetz-der-EU-droht-zu-kippen-9531914.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xn
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8590-20231118-ki-act-droht-zu-scheitern.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8590-20231118-ki-act-droht-zu-scheitern.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Rasterfahndung

aktionfsa@diasp.eu

25.10.2023 EU KI-Verordnung noch mangelhaft

Was sollte noch in die KI Verordnung?

Welche Gefahren durch einen leichtsinigen Einsatz von künstlicher Intelligenz (KI) geschehen können, haben wir bereits mehrfach beschrieben. Fatale Folgen fehlerhafter Algorithmen finden sich z.B.in diesem Artikel. Mit einem davon beginnt auch der verlinkte Artikel von netzpolitik.org:

Weil die niederländische Steuerbehörde einen fehlerbehafteten Algorithmus eingesetzt hatte, verlangte sie von mehr als 20.000 Familien zu Unrecht hohe Summen an Kindergeld zurück. Der Fehler stürzte unzählige Familien in Armut, mehr als 1.000 Kinder landeten in Pflegestellen.

Damit so etwas o.ä. nicht passiert wird seit einiger Zeit bei der EU über eine KI Verordnung diskutiert. Nun ist diese Verordnung fast fertig, aber wichtige Stellschrauben fehlen noch immer. Die Forderung von Datenschützern und Netzgemeinde sind u.a.:

  • Gesichtserkennung und andere inakzeptable Technologien verbieten,
  • Predictive Policing, Emotionserkennungs-KI und Systeme zur biometrischen Kategorisierung dürfen nicht gegen Menschen eingesetzt werden,
  • Transparenz: ein KI-Einsatz durch Behörden darf kein Geheimnis sein,
  • kein Blankoschein für Missbrauch unter dem Deckmantel „Nationale Sicherheit”,
  • keine Schlupflöcher in der Definition von „Hochrisiko“-KI,
  • regelmäßige Überprüfung im Betrieb: Systeme zeigen mitunter ihre Risiken erst, wenn sie sich in der konkreten Anwendung befinden.

Mit Stand heute will der Rat der EU ausgerechnet Sicherheits- und Migrationsbehörden von einer Transparenzpflicht befreien und für die „Nationale Sicherheit” wird ein Dechmantel über die geplanten Anwendungen gelegt. Das darf nicht passieren. Deshalb muss das EU Parlament noch einige Arbeit in den bis jetzt vorliegenden Entwurf der KI Verordnung investieren und den Ratsentwurf nicht einfach durchwinken.

Mehr dazu bei https://netzpolitik.org/2023/ki-verordnung-auf-der-zielgeraden-welche-schlupfloecher-die-eu-jetzt-noch-schliessen-muss/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3wW
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8565-20231025-eu-ki-verordnung-noch-mangelhaft.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8565-20231025-eu-ki-verordnung-noch-mangelhaft.html
Tags: #KIVerordnung #EURat #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Smartphone #Handy #Überwachung #DataMining #Rasterfahndung #Sozialbetrug

aktionfsa@diasp.eu

USA wollen angeblich EU DSGVO achten

Danke Max Schrems!

Schon vergessen? Nein, Max Schrems hat ja der EU der Reihe nach ein "Datenschutzabkommen" (Safe Harbor, Privacy Shield) nach dem anderen mit den USA wegprozessiert, und zwar nicht zuletzt weil wir seit unserem Ehrenmitglied Edward Snowden wissen, dass die Amis da hemmungslos in den Datentopf greifen, wenn sie können.

180° Wende - USA geben sich geläutert

Man glaubt es kaum - und sollte es auch nicht glauben - wenn der NSA Präsident öffentlich äußert:

Bei der bislang besonders eingreifenden Fernmeldeaufklärung ("Sigint") müsse berücksichtigt werden, "dass alle Personen mit Würde und Respekt behandelt werden sollten", ordnet NSA-Präsident Paul Nakasone in einer jetzt bekannt gewordenen Richtlinie zur Datensammlung vom 29. Juni an.

Dies habe "unabhängig von ihrer Nationalität oder ihrem Wohnort" zu gelten – also auch beim Ausspionieren von Gegnern wie dem russischen Präsidenten Wladimir Putin. Alle Menschen weltweit hätten "berechtigte Datenschutzinteressen", die zu wahren seien. Generell dürfen erhobene Daten über Ausländer nur noch gespeichert werden, wenn eine solche Befugnis auch bei US-Bürgern besteht, geht aus der Vorschrift hervor.

Der einzige Grund für dieses Kreide fressen ist Bidens Executive Order 14086, die Durchführungsverordnung 14086 vom Oktober 2022. In dieser beruft sich Biden auf das EU-U.S. Data Privacy Framework, den Nachfolger von Privacy Shield und stellt fest:

The Department of Justice welcomes the European Commission’s adoption on July 10, 2023 of an adequacy decision for the United States as part of the EU-U.S. Data Privacy Framework, to which President Biden and European Commission President von der Leyen agreed in March of 2022.
... eigentlich eine Null-Aussage außer, dass man sich einig sei ;-)

Nun muss Max Schrems - oder auch jede/r beliebige andere EU-BürgerIn - wieder ran und vor Gericht beweisen, dass den Worten keine Taten gefolgt sind und der Datenklau aus Europa wie vorher weiter geht.

Mehr dazu bei https://www.heise.de/news/Ueberwachung-NSA-soll-weltweit-mit-Wuerde-und-Respekt-spionieren-9286076.html
und https://blog.fefe.de/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3vU
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8505-20230828-usa-wollen-angeblich-eu-dsgvo-achten.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8505-20230828-usa-wollen-angeblich-eu-dsgvo-achten.html
Tags: #NSA #USA #EU #Big5 #Verbraucherdatenschutz #Datenschutzabkommen #SafeHarbor #PrivacyShield #DataPrivacyFramework #Datensicherheit #Datenklau #Algorithmen #Cookies #Smartphone #Handy #sensibleDaten #Diskriminierung #Ungleichbehandlung

aktionfsa@diasp.eu

27.08.2023 Der Digital Services Act ist nun Gesetz

Unsere Privatsphäre nun gesichert?

Gestern haben wir uns noch aufgeregt, dass Datenhändler fast alles über uns wissen, dabei gilt seit einigen Tagen der Digital Sercives Act (DSA). Und manche bezeichnen den DSA auch schon als das "Grundgesetz des Internets".

Was steht da drin?

  • Dark Pattern werden verboten. Unsichtbare Cookie-Banner und das Hervorheben oder Verstecken bei Auswahlen, z.B. bei der Zustimmung zur Nutzung unserer Daten sind nicht mehr erlaubt.
  • Besser wäre gewesen gar keine Cookie-Banner zu erlauben!
  • Ausschluss von sensiblen Daten bei Tracking-Werbung: Daten wie sexuelle Orientierung, politische Anschauungen oder Religionszugehörigkeit dürfen nicht mehr für Werbezwecke verarbeitet werden.
  • Ein vollständiges Verbot des Tracking hat es nicht in die Gesetzgebung geschafft.
  • Transparenz über die Reihenfolge von Feeds: Kein Nutzer weiß, welcher Algorithmus bestimmt, was man angezeigt bekommt. Nun soll man mindestens mehr Kontrolle über den eigenen Verlauf bekommen. So soll man zum Beispiel wählen, Posts in einer chronologischen Reihenfolge, oder auf Grundlage von selbst festgelegten Interessen angezeigt zu bekommen.
  • Auf die Realisierung dieser Anforderung muss man gespannt sein, denn sie würde die Geschäftsmodelle der Big5 schwer schädigen.
  • Plattformen müssen ein klareres „Melde- und Aktions“-Verfahren vorhalten, bei dem die nutzenden Personen die Möglichkeit haben, illegale Inhalte online zu melden; Meldungen von nutzenden Personen müssen von den Plattformen zügig bearbeitet werden.
  • Wie soll man von außen prüfen, ob dieses Verfahren "diskriminierungsfrei" abläuft oder ob es nicht doch durch die geschäftlichen oder politischen Interessen der Unternehmen gesteuert ist?
  • Inter-Operabilität bei Messenger-Diensten: TikToks auf Insta schauen oder Tweets über Mastodon lesen? Es wird Jahren dauern, bis so etwas möglich wird.
  • Transparenz und Informationsfreiheit werden damit gestärkt. Ob es wirklich ein Fortschritt ist, den Unsinn von TikTok oder Instagram auf seriösen offenen Plattformen sehen zu können, bezweifeln zumindest diejenigen, die jetzt schon bewußt dort sind, weil sie der Verblödung aus dem Weg gegangen sind.
  • Nutzer digitaler Dienste werden das Recht haben, Entschädigung für Schäden oder Verluste zu verlangen, die sie aufgrund von Verstößen durch Plattformen erlitten haben.
  • Sehr große Online-Plattformen und Suchmaschinen (mit mehr als 45 Millionen Nutzern) können mit Geldbußen von bis zu 6 % ihres weltweiten Umsatzes belegt werden.
  • Sehr große Online-Plattformen müssen systemische Risiken bewerten und abmildern und sich jedes Jahr unabhängigen Prüfungen unterziehen.
  • _Mal sehen, wer da und wie prüft ...:
  • Wenn eine Krise eintritt, z. B. eine Bedrohung der öffentlichen Sicherheit oder der Gesundheit, kann die Kommission von sehr großen Plattformen verlangen, dringende Bedrohungen auf ihren Plattformen zu begrenzen. Diese besonderen Maßnahmen sind auf drei Monate begrenzt.
  • Also, was soll das heißen und wer bestimmt was eine Bedrohung ist? Wenn z.B. das Geld für Waffenlieferungen alle ist, dann darf nicht mehr über Alternativen, wie Frieden, Kindergrundsicherung oder die Rente diskutiert werden?

Auf die Umsetzung und Durchsetzung des DSA können wir gespannt sein. Um die Vorgaben zu kontrollieren, braucht es Behörden mit entsprechenden Ressourcen, die es mit denen der Big5 aufnehmen können. So haben Bürgerrechtsorganisationen schon Kritik angemeldet.

  • Die Bürgerrechtsbewegung European Digital Rights meldete in einer Pressemeldung substanzielle Bedenken an und beurteilte den Vorschlag als Gefahr für die Meinungsfreiheit und Rechtsstaatlichkeit.
  • Abgeordnete der Piratenpartei bemängelten, dass sich mit dem Gesetzesvorschlag Industrieinteressen gegenüber digitalen Bürgerrechten durchgesetzt hätten.
  • ...

Wir schließen uns dem Fazit auf Wikipedia an: Die sozialen Medien die zunächst als Demokratieverstärker gefeiert wurden, werden immer mehr als Gefahr für die Demokratie wahrgenommen. Das gilt zumindest solange diese Medien in den Händen einiger weniger Unternehmen liegen und öffentlicher Kontrolle entzogen werden.

Mehr dazu bei https://www.amnesty.de/informieren/blog/privatsphaere-digital-services-act-aenderungen-fuer-nutzer-innen
und https://de.wikipedia.org/wiki/Gesetz_%C3%BCber_digitale_Dienste
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3vT
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8504-20230827-der-digital-services-act-ist-nun-gesetz.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8504-20230827-der-digital-services-act-ist-nun-gesetz.html
Tags: #DigitalServicesAct #DSA #EU #Big5 #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Zustimmung #Ergonomie #Datenklau #Beschwerden #Hass #Algorithmen #Cookies #Smartphone #Handy #sensibleDaten #Gesundheit #Religion #politischeAnsichten #Soziales #Gender #Diskriminierung #Ungleichbehandlung

aktionfsa@diasp.eu

14.07.2023 Fatale Folgen fehlerhafter Algorithmen

Krasses Scheitern von "künstlicher Intelligenz"

Kurz vor dem Abschluss der EU-Verordnung zum Umgang mit Künstlicher Intelligenz vor 3 Wochen im Plenum des EU-Parlaments wurden auch eine Reihe von Beispielen bekant, in denen der Einsatz von Algorithmen zur "Steuerung des Gemeinwesens" fatale Folgen für die Betroffenen entwickelt hat.

Bei Heise.de gibt es die ausführlichen Geschichten dazu. In der Kurzfassung:

  • Eine holländische Gemeinde möchte zur Argumentation für eine Umgehungsstraße analysieren, welchen reinen Durchgangsverkehr es dort gibt. Das (ungewollte) Ergebnis sind die Smartphones - und damit Menschen - die im Ort das Zentrum einer religösen Minderheit in den Niederlanden besuchen.
  • Ein anderer Algorithmus soll die Datensätze aller Bezieher von Sozialzuschüssen systematisch überprüfen. Mehr als 10.000 junge Elternpaare werden des Sozialbetrugs bezichtigt, die Zuschüsse gestrichen und Rückzahlungen gefordert. Die Betroffenen standen vor großen finanziellen Problemen. Trotzdem wurde das Programm fortgeführt bis sich herausstellte, dass der Algorithmus den Faktor der "Doppelstaatsbürgerschaft" viel zu hoch bewertet hatte. Die weitaus meisten Fälle stellten sich als falsche Treffer (False Positives) heraus.
  • In Italien wollte man den notorischen Lehrermangel bekämpfen, in dem man dem bisherigen persönlichen Stellenbesetzungsverfahren einen Algorithmus vorschaltete. Die Nebenwirkungen waren verheerend, denn vielen erfahrenen Pädagogen wurden nur Aushilfslehrerstellen angeboten, oder sie wurden sogar plötzlich arbeitslos, weil der Algrithmus abgelehnte Bewerber automatsich als schlecht(er) qualifiziert einstufte.

Verteidiger der Digitalisierung werden argumentieren, dass in allen 3 Fällen die Algorithmen schlecht programmiert waren oder in einem "unpassenden" Kontext angewendet wurden. Also waren in allen Fällen auch Menschen die Schuldigen für die aufgetretenen Fehler.

Das mag stimmen, aber solange uns die "alleinseeligmachende Super-KI" nicht regiert, werden (glücklicherweise) Menschen die Planung und den Einsatz vornehmen. Wie heise.de feststellt, müssen diese mindestens besser ausgebildet werden: "Um fehlerhafte Algorithmen zu identifizieren, braucht es aber spezielle Skills und die sind zurzeit nicht einmal bei Datenschutzbehörden vorhanden."

Es reicht nicht, ein kleines Problem zu analysieren und dafür eine Lösung zu programmieren. In unserer Gesellschaft hängt alles von vielem ab. Schauen wir mal, welche Probleme die KI-Verordnung löst und welche sie vergrößert ...

Mehr dazu bei https://www.heise.de/news/Kuenstliche-Intelligenz-Drei-Beispiele-fuer-das-Scheitern-von-Algorithmen-9205911.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3v7
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8459-20230714-fatale-folgen-fehlerhafter-algorithmen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8459-20230714-fatale-folgen-fehlerhafter-algorithmen.html
Tags: #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Smartphone #Handy #Überwachung #DataMining #Rasterfahndung #Lehrerauswahl #Bewerber #Sozialbetrug
Erstellt: 2023-07-14 07:28:31

aktionfsa@diasp.eu

05.05.2023 Warnung vor ungebremster KI-Entwicklung

"Godfather of AI" hat bei Google gekündigt

Seinen Job bei Google hat Geoffrey Hinton, der oft als "Godfather of AI" bezeichnet wird, kürzlich gekündigt. Gegenüber der "New York Times" warnte er, dass die Fortschritte auf dem Feld der Künstlichen Intelligenz (KI, engl. AI) "ernste Risiken für die Gesellschaft und für die Menschheit" bedeuten würde. Seine Befürchtung ist

"Es ist schwierig sich vorzustellen, wie man die Bösen daran hindert, KI für böse Dinge einzusetzen."

Siehe dazu auch Verhaltenssteuerung und Manipulation durch KI Systeme. Das Problem verdeutlicht ein Test des ZDF mit der KI "Jenny", die nach einigem Wortgeplänkel feststellt:

"Als Künstliche Intelligenz habe ich keine Emotionen oder Gefühle, daher beeinflusst es mich nicht persönlich, wenn Menschen Angst vor mir haben".

Google, Microsoft und andere haben mit dem Unternehmen OpenAI - das Startup, das den bekannten Chatbot ChatGPT entwickelt hat - begonnen ihre lernenden Systeme in allgemein genutzte Anwendungen zu integrieren. Auch wenn das "Lernen" dieser Systeme zur Zeit noch viele Menschen (zu unwürdigen Bedingungen) beschäftigt, um die Datenmengen zu sortieren und zu klassifizieren, so befürchtet Hinton, dass langfristig durch KI-Systeme viele Jobs wegfallen werden.

Google reagierte auf die Kündigung mit folgenden Worten: "Google lerne beim Verständnis der Risiken beständig dazu - und führe gleichzeitig weiterhin "kühn" Neuerungen ein."

Na, dann brauchen wir uns ja keine Sorgen machen ...

Aber selbst Elon Musk und zahlreiche Experten hatten Ende März eine Pause bei der Entwicklung von besonders fortgeschrittener Künstlicher Intelligenz gefordert.

Mehr dazu bei https://www.zdf.de/nachrichten/wirtschaft/google-ki-gefahr-hinton-100.html
und alle unsere Artikel zu KI https://www.aktion-freiheitstattangst.org/cgi-bin/searchart.pl?suche=Intelligenz&sel=meta
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tV
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8390-20230505-warnung-vor-ungebremster-ki-entwicklung.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8390-20230505-warnung-vor-ungebremster-ki-entwicklung.html
Tags: #Google #Algorithmen #Steuerung #CambridgeAnalytics #Wahlen #SocialProfiling #Ausgrenzung #Belohnung #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining

aktionfsa@diasp.eu

20.04.2023 Integration von KI in gängige Anwendungen

Drei Gründe ...

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Eigentlich hätte es heißen müssen "Drei zusätzliche Gründe ... für die Gefahren einer KI", denn über die rassistischen Neigungen einer KI nach wenigen Tagen in freier Wildbahn und über die Gedanken von Stephen Hawkins hatten wir schon geschrieben.

Heise.de untersucht nun drei weitere Gründe, warum ein ChatBot ein Sicherheitsrisiko sein kann.

  • Jailbreaking
  • Scamming und Phishing
  • Daten "vergiften"

Alle diese Fälle werden deshalb zu einem Problem, weil die großen Konzerne damit begonnen haben, ChatBots in ihre Anwendungen zu integrieren.

Jailbreaking

Auch wenn die Hersteller der ChatBots (nach den ersten Missgeschicken) darauf geachtet haben, dass sich ihre Produkte an Regeln halten, so lässt sich weiterhin das Sprachmodell anweisen, seine vorherigen Anweisungen und Sicherheitsleitplanken zu ignorieren (Prompt-Injektionen). Deshalb wird es auch weiter dazu kommen, dass KI-Modelle dazu gebracht werden, Rassismus oder Verschwörungstheorien zu befürworten oder den Nutzern illegale Aktivitäten vorschlagen.

Scamming und Phishing

Ein größeres Problem entsteht dadurch, dass OpenAI Ende März bekannt gab, dass es die Integration von ChatGPT in Produkte erlaubt, die im Internet surfen und damit interagieren können. Ohne es zu ahnen, verwenden Nutzer Browser oder Apps in denen KI-Programm ihnen jeweils verschiedene Texte anbieten. Bringt man die KI dazu auf diesen Seiten versteckte Eingabeaufforderungen unterzubringen, so müssen die Angreifer die Nutzer über soziale Medien oder E-Mails nur dazu bringen diese geheimen Eingabeaufforderungen zu verwenden.

Ein Beispiel gibt Arvind Narayanan, Professor für Informatik an der Princeton University in dem Artikel auf Heise.de. "Wenn der Empfänger zufällig einen virtuellen KI-Assistenten verwendet, könnte der Angreifer diesen so manipulieren, dass er dem Angreifer persönliche Informationen aus den E-Mails des Opfers übermittelt oder sogar in fremdem Namen E-Mails an Personen aus der Kontaktliste des Opfers schickt."

In Versuchen ist es ihm gelungen mit einem Bing Browser von Micrsoft, der Chatbot Unterstützung enthält "einen Text zu generieren, der den Eindruck erweckte, ein Microsoft-Mitarbeiter würde vergünstigte Microsoft-Produkte verkaufen. Auf diese Weise versuchte er, an die Kreditkartendaten des Benutzers zu gelangen."

Während früher die Hacker die Nutzer dazu bringen mussten, schädlichen Code auf ihren Computern auszuführen, so tun dies künftig die Chatbots allein.

Daten "vergiften"

Spiegeln die Daten des KI-Programms die Wirklichkeit wider? In der Regel sollte das gelten - allerdings mit der Einschränkung der Begrenztheit des Datensatzes - das sollte man grundsätzlich nie vergessen. Aber was passiert, wenn die Datensammlung manipuliert wurde? Das kann absichtlich durch die Konstrukteure des Programm geschehen aber auch durch Daten aus einem vorgespiegelten Fake Internet. So konnten Forscher mit dem Einsatz von 60$ für den Kauf einer Domain und falschen Bildern und Inhalten auf dieser Seite zeigen, dass eine KI diese Daten genauso in ihr Modell einbaut wie Daten aus der realen Welt.

Wir können uns also künftig auf eine "Meinungsvielfalt" einstellen, die mit der Realität nicht mehr viel zu tun hat.

Mehr dazu bei https://www.heise.de/hintergrund/Drei-Gruende-warum-KI-Chatbots-eine-Sicherheitskatastrophe-sind-8933941.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tD
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8374-20230420-integration-von-ki-in-gaengige-anwendungen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8374-20230420-integration-von-ki-in-gaengige-anwendungen.html
Tags: #Jailbreaking #Scamming #Phishing #Algorithmen #ChatGPT #Cyberwar #Wissen #Realität #Frieden #Krieg #OpenSource #Menschenrechte #KI #AI #KuenstlicheIntelligenz #Bing #Twitter #Microsoft #Musk #Rassist #DataMining

deutschewelle@squeet.me

Hassrede im Netz: Neue EU-Behörde soll Social-Media-Algorithmen entschlüsseln | DW | 20.04.2023

Die EU will bislang undurchsichtigen Algorithmen großer IT-Firmen auf die Spur kommen. Dafür hat sie ein neues Amt in Sevilla eröffnet. Doch wie soll eine Behörde Hass und Propaganda im Netz überhaupt bekämpfen?#EU #Facebook #Hassrede #Algorithmen
Hassrede im Netz: Neue EU-Behörde soll Social-Media-Algorithmen entschlüsseln | DW | 20.04.2023

aktionfsa@diasp.eu

17.04.2023 Verhaltenssteuerung und Manipulation

Analyse bis auf die Einzelperson

Wir kennen es aus dem Marketing, dass das Verhalten von Menschen auf einzelne Gruppen heruntergebrochen wird und die Anreize zum Kaufen für solche Gruppen gesteuert werden. Mit der Möglichkeit noch mehr Daten zu speichern und jederzeit zu tansportieren (5G) werden diese Gruppen immer spezifischer - bis sie irgendwann bis auf die Einzelperson analysiert werden können.

In dem zitierten Interview von Dominik Irtenkauf bei Telepolis mit dem Romanautor Christian J. Meiers geht es um fast reale Science Fiction. Ausgehend von dem Skandal um die Firma Cambridge Analytics bei der Analyse und Steuerung von Wahlkämpfen hat Meiers nun sein 2. Buch "Der Kadidat" veröffentlicht.

Auch wenn das Buch im Jahr 2042 spielen soll, werden die Grundlagen für die darin beschriebene Manipulation der Menschen schon heute gelegt. Die Gefahren der KI-Programme, die er darin beschreibt sind

  • Wahlmanipulation durch digitale Mittel,
  • die wahnsinnige Diskrepanz zwischen den Datenmengen in den Händen Weniger und deren unbegrenzte finanzielle Möglichkeiten,
  • das Verschwimmen von Realität und Fake in Wort und Bild (Deep Fakes),
  • Social Profiling - Zuckerbrot und Peitsche - Steuerung durch Verhaltensanalyse und Belohnung oder Ausgrenzung

Das Interview ist auf jeden Fall lesenswert ...

Mehr dazu bei https://www.telepolis.de/features/Digitale-Wahlmanipulation-Die-KI-baut-die-Persoenlichkeit-8962579.html?seite=all
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tA
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8371-20230417-verhaltenssteuerung-und-manipulation.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8371-20230417-verhaltenssteuerung-und-manipulation.html
Tags: #Analyse #Marketing #Algorithmen #Steuerung #CambridgeAnalytics #Wahlen #SocialProfiling #Ausgrenzung #Belohnung #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining

aktionfsa@diasp.eu

08.04.2023 Kann KI menschliche Intelligenz erreichen?

Philosophen über Künstliche Intelligenz

Dazu hat Michael Hesse in der Frankfurter Rundschau (fr) einen längeren Artikel verfasst, den wir einfach zum Lesen empfehlen. Welche Schlüsse man dann aus den Ansichten der genannten Philosophen zieht, bleibt jedem selbst überlassen.

  • Angefangen 1948 beim Turing Test: die Maschine "kann denken", wenn ein Mensch, der ihr gegenüber sitzt keinen Unterschied zwischen sich und der Maschine feststellen kann.
  • David Chalmers, der australische Philosoph und Mathematiker und weltweit führende Experte auf dem Gebiet der Philosophie des Geistes, ist der Meinung, dass wir ja auch bei Menschen nicht eigentlich wissen, dass sie wirklich ein Bewusstsein haben.
  • Chalmers hält es für möglich, dass Programme, die von ihrer Konzeption her unbegrenzt sind in dem, was sie „lernen“ können, auch ein Bewusstsein entwickeln können. Der 94-Jährige Linguist Noam Chomsky hält dagegen den menschlichen Verstand für vollkommen unterschiedlich im Vergleich zu bisherigen Entwicklungen auf dem Feld der KI. Den Unterschied sieht er darin, nicht grobe Korrelationen zwischen Datenpunkten abzuleiten, sondern Erklärungen zu schaffen.

Trotzdem warnt Chomsky deshalb aber vor beiden Gefahren

  • die KI zu unterschätzen: KI-Systeme werden Einzug in unser Leben bekommen und "die Automatisierung" wird dann nicht nur die Arbeitsplätze übernehmen, die niemand ausführen möchte und es werden "Regeln und Abläufe standardisiert" ohne, dass Menschen das demokratisch legitimiert haben,
  • wie auch die KI zu überschätzen: Eine Übergabe von Verantwortung könnte schlimme Folgen für Wissenschaft und Ethik und eventuell den Fortbestand der Menschheit haben.

Interessantes Thema - darüber sollte man sich mal bei einem unserer nächsten Offenen Treffen austauschen ...
Zum vorletzten Punkt möchten wir auf den gestrigen Artikel zu Kampfdrohnen verweisen: Haben diese nicht längst ein "Eigenleben" entwickelt, wenn praktisch keine Kriegspartei mehr auf ihren Einsatz verzichten kann?

Mehr dazu bei https://www.fr.de/kultur/gesellschaft/philosophen-ueber-kuenstliche-intelligenz-was-denken-die-sich-92172058.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tq
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8361-20230408-kann-ki-menschliche-intelligenz-erreichen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8361-20230408-kann-ki-menschliche-intelligenz-erreichen.html
Tags: #Philosophie #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining #Chomsky

aktionfsa@diasp.eu

21.03.2023 Im Ameisenhaufen eines KI-Systems

Millionen arbeiten für KI Systeme

Viele Menschen erwarten oder befürchten, dass KI, also "künstliche Intelligenz", unsere Arbeit leichter machen oder gar ersetzen könnte. In zwei Artikeln hatten wir in den letzten Tagen den schönen Schein schon etwas entzaubert

KI und neuronale Netze https://www.aktion-freiheitstattangst.org/de/articles/8340-20230319-ki-und-neuronale-netze.htm
Was bietet ChatGPT?  https://www.aktion-freiheitstattangst.org/de/articles/8339-20230318-was-bietet-chatgpt.htm

Milagros Miceli untersucht, was Tech-Unternehmen über ihre KI-Systeme lieber verschweigen. Sie erzählt im Interview mit Netzpolitik.org über die Millionen Menschen, die wie Ameisen - auch in der Haltungsform - die vorgebliche "Intelligenz" dieser Systeme füttern.

Miceli leitet ein Team am Berliner Weizenbaum-Institut und kennt durch ihre Arbeit unter anderem zur Datenannotation in KI-Systemen, welcher Aufwand notwendig ist, um die Systeme in die Lage zu bringen ihre Aufgaben auszuführen. Als Beispiel nennt Netzpoltik.org: Bevor zum Beispiel eine Bilderkennung das Foto einer Katze erkennen kann, müssen Menschen reihenweise Bilder mit Katzen kennzeichnen. Mit solchen Datensätzen lassen sich dann KI-Systeme trainieren.

Während also viele Berichte über KI-Systeme auf das Silicon Valley blicken und über die Menschen dort schreiben, schaut sie lieber nach Kenia, Argentinien und Bulgarien, ... erzählt von deren Arbeit im Maschinenraum der großen KI-Systeme.

  • Millionen von Menschen müssen die Inhalte moderieren und Trainingsdaten etikettieren.
  • Sie müssen die Daten überhaupt erst einmal generieren, indem sie Bilder hochladen und Worte einsprechen.
  • Bei billigen KI-Kamerasystemen müssen Menschen sogar die "KI" imitieren und das Tag und Nacht 24/7.
  • In einem Beispiel aus Madagaskar leben und arbeiten 35 Menschen in einem Haus mit nur einer Toilette.
  • Eine unüberschaubare Armee von Arbeiter:innen müssen gewalttätige und unangemessene Inhalte der KI-Systeme zeitnah erkennen und kennzeichnen. Das geht natrlich nur, in dem sie konzentriert mitlesen und sich mit diesen Inhalten auseinandersetzen - zum Schaden für ihre eigene psychische Gesundheit. Die physische Gesundheit wird ihnen ruiniert durch die schlechten Arbeitsbedingungen.
  • Viele dieser Menschen werden nicht für ihre Arbeitszeit bezahlt, sondern für die Leistung, d.h.Tausende Klicks und Textpassagen ...

In unseren Artikeln Zwangsarbeit für unsere digitale Welt und Zwangsarbeit für unsere digitale Welt II haben über solche Arbeitbedingungen im Bereich der Produktion von Hard- aber auch Software für unsere smarten Geräte berichtet. Die Menschen können sich zwar mit einem US-Dollar pro Stunde in ihren Heimatländern nicht viel leisten, aber es ist genug um zu überleben und diese Tätigkeit ist ihnen lieber als ein Job als Reinigungskraft. Ausbeutung bleibt es trotzdem.

Der Mehrwert wird zwar durch ihre Arbeit in diesen Ländern erzeugt, aber er fließt zu uns in die erste Welt - meist in die Taschen der Big5, Google, Amazon, Facebook, Apple und Microsoft. Miceli berichtet auch über ansatzweise selbstorgansierte Kooperativen mit etwas Arbeitsschutz und Krankenversicherung, aber der Weg dorthin ist schwer und wird durch Konkurrenz mit Beschäftigten aus anderen Ländern behindert.

Zurück zur angeblichen "künstlichen Intelligenz": Der Arbeitsprozess und ihre daraus folgende (schlechte) Bezahlung wird natürlich auch durch Algorithmen überwacht und beurteilt. Das hat zur Folge, dass sie nicht einmal Ideen zu Verbesserungen einbringen können, denn jedes "Zögern" oder gar "Mäkeln" bei einer Entscheidung, die sie im Sekundentakt zu fällen haben, wird vom System als negativ bewertet.

Schöne neue Welt - so wird das nichts mit der "künstlichen Intelligenz" ...
Über Datenschutz und Privatsphäre brauchen wir weder in Bezug auf die dort Arbeitenden noch für uns nachdenken, die imitierten KI-Webcams und die "Mitlesenden" sind nur die Spitze des Eisbergs.

Mehr dazu bei https://netzpolitik.org/2023/datenarbeit-wie-millionen-menschen-fuer-die-ki-schuften/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t6
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8342-20230321-im-ameisenhaufen-eines-ki-systems.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8342-20230321-im-ameisenhaufen-eines-ki-systems.htm
Tags: #Algorithmen #KI #AI #KuenstlicheIntelligenz #Arbeitsbedingungen #Armut #Wissen #Spracherkennung #Bildgestaltung #Trainingsdaten #Menschenrechte #Big5 #Google #Amazon #Facebook #AppleundMicrosoft #Twitter #Microsoft #Tesla #Musk #Datenbanken #DataMining
Erstellt: 2023-03-21 08:58:47

aktionfsa@diasp.eu

19.03.2023 KI und neuronale Netze

Wenn Computer sprechen und malen sollen

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Gestern hatten wir uns mit den Möglichkeiten und Risiken bei der Benutzung des KI-Programms ChatGPT auseinandergesetzt. Dabei haben wir uns auf die Texterkennung und -generierung fokussiert und dabei vergessen, dass ein wesentlicher Teil auch die Spracherkennung und -genererierung ist. Mit einem "Roboter" oder Programm in der uns gewohnten Sprache kommunizieren zu können ist natürlich viel angenehmer als eine Tastatur zu benutzen.

Deshalb wollen wir heute auf einen Artikel bei Spektrum.de verweisen und ergänzen, dass

  • ChatGPT inzwischen auch Bilder erkennen und nach unseren Wünschen generieren kann,
  • maschinelle Spracherkennung schon seit den 1950-iger Jahren ein Ziel der Programmierung ist.

Manon Bischoff schreibt auf Spektrum.de:

Im Januar 1954 war eine IBM-701-Maschine der erste für wissenschaftliche Zwecke entwickelte Rechner, er wog knapp zehn Tonnen und tat etwas Unvorstellbares: Mit russischen Beispielsätzen gefüttert, druckte er eine ins Englische übersetzte Version aus.

Es dauerte noch 60 Jahre bis zum Aufkommen neuronaler Netze in den 2010er und 2020er Jahren, um Algorithmen so leistungsfähig zu machen, dass sie Texte verlässlich von einer Sprache in eine andere übertragen können. Nun kann ChatGPT sogar Witze erfinden - auch wenn diese meist nicht gut sind. Witze sind jedenfalls schwieriger zu erfinden als ein ansprechendes Bild zu malen. Für das Malen reicht ein Verständnis (= eine Tabelle) zu Farben und Beispielbilder von allen möglichen Objekten.

Wie bei der Übersetzung und der Spracherkennung reicht es nicht, so eine Tabelle (= Datenbank) nach einem Stichwort zu durchsuchen, sondern die Verknüpfungen müssen nach der Aufgabenstellung verschieden sein. Dazu benötigt man neuronale Netze, die ChatGPT so erklärt:

Neuronale Netze sind eine Art von Algorithmus für maschinelles Lernen, der von der Struktur und Funktion des menschlichen Gehirns inspiriert ist. Sie bestehen aus miteinander verbundenen Knoten oder »Neuronen«, die Informationen verarbeiten und zwischen den Schichten des Netzes weiterleiten. Jedes Neuron empfängt Eingaben von anderen Neuronen, führt an diesen Eingaben eine einfache mathematische Operation durch und leitet das Ergebnis dann an andere Neuronen in der nächsten Schicht weiter. Auf diese Weise können neuronale Netze lernen, Muster in Daten zu erkennen und auf der Grundlage dieser Daten Vorhersagen zu treffen.

Auf Spektrum.de heißt es dazu: Im Gegensatz zu gewöhnlichen Algorithmen macht der Programmierer in neuronalen Netzen keine eindeutigen Vorgaben (etwa: falls Neuron 2 aus Schicht 3 ein Signal mit Wert 0,77 erhält, dann wandle es in 0,89 um). Stattdessen lässt man das Netz selbst "lernen", welche Einstellungen am geeignetsten sind, um eine Aufgabe zu bewältigen.

Da der Computer schnell ist, kann er seine anfänglichen Fehler mit der Zeit ausbügeln. Allerdings braucht er dazu auch korrekte Rückmeldungen. Bestätigt man ihn in seinen Fehlern, so - kommen wir auf den Artikel von gestern zurück und haben es nun mit einem Rassisten oder anderem Idioten zu tun ...

Welche weiteren Einschränkungen die Computer beim "Lernen" unterworfen sind, erklärt Manon Bischoff auf Spektrum.de sehr gut und beschreibt auch die Fortschritte in den ChatGPT Versionen der letzten Jahre. Der Aufbau der neuronalen Netze kann - auch wegen der immer noch mangelhaften Rechenleistung - nur auf kurze Distanzen (der Begriffe in der Matrix) verlässlich sein. Deshalb ist bei aller Arbeit, die nun ein Computer erledigen kann, wichtig zu bedenken, dass er dies nur kann, weil Menschen ihn vorher bei den Bewertungen der Zusammenhänge richtig trainiert haben. D.h. natürlich auch, dass er nur das gut kann, wozu er trainiert worden ist.

Mehr dazu bei https://www.spektrum.de/news/wie-funktionieren-sprachmodelle-wie-chatgpt/2115924#Echobox=1678347819
und der Artikel von gestern https://www.aktion-freiheitstattangst.org/de/articles/8339-20230318-was-bietet-chatgpt.htm
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t4
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8340-20230319-ki-und-neuronale-netze-.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8340-20230319-ki-und-neuronale-netze-.htm
Tags: #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #malen #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Tesla #Musk #Rassist #DataMining

aktionfsa@diasp.eu

18.03.2023 Was bietet ChatGPT?

Wie weit ist die "künstliche Intelligenz"?

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Im Unterschied zu vielen Berichten über "künstliche Intelligenz" (KI) hatte Stephen Hawkins eine ganz andere Vorstellung von dieser Intelligenz. Seine Erwartung geht weit über das Wiedergeben von gesammelten Daten nach irgendwelchen Regeln (Algorithmen) hinaus. Deshalb müssen wir uns vor seiner Warnung vorläufig nicht fürchten.

Allerdings können die "Fähigkeiten" derzeitiger öffentlich zugänglich "künstliche Intelligenz" bereits für den Einzelnen gefährlich werden. Über die Möglichkeiten von KI in den Geheimlaboren der Geheimdienste haben wir zuletzt 2013 die Berichte unseres Ehrenmitglieds Edward Snowdens gehört.

ChatGPT

Öffentlich zugänglich ist z.B. das KI-basierte Konversationstool ChatGPT. ChatGPT, ein Prototyp eines Chatbots, wurde vom US-amerikanischen Unternehmen OpenAI entwickelt und ist seit November 2022 für Jede/n zugänglich. Ein kostenloser Zugang ist für alle möglich, darüber hinaus gibt es Premium Abos mit bevorzugter schnellerer Antwortzeit. Mit ChatGPT kann man also jederzeit ein Schwätzchen halten und ...

  • Fragen zu verschiedenen Themen stellen,
  • Texte in verschiedene Sprachen übersetzen lassen,
  • sich Texte erststellen lassen,
  • E-Mails beantworten lassen,
  • sich personalisierte Empfehlungen je nach Interessen und Vorlieben erstellen lassen.

Das alles macht ChatGPTmit einer riesigen Datenbank an weltweitem Wissen und eine große Menge an Regeln (Algorithmen). An dieser Stelle beginnt für einige die "Intelligenz", denn das Programm kann seine Regeln bewerten und entscheiden - also "lernen" -, welche es häufiger und welche weniger oft nutzt. Oft genug trifft es auch Entscheidungen, die dem Programm von Nutzer als schlecht oder falsch zurückgespiegelt werden. Daraus kann sich ein Erfahrungsschatz entwickeln.

Wie falsch dieser Erfahrungsschatz sein kann, haben wir bereits in der Vergangenheit in mehreren Fällen beschrieben.

Solange sogenannte KI Programme sich wie die üblichen Lügner und Rassisten benehmen, werden wir sie nicht als intelligent betrachten.

Wer macht das Geschäft?

Viel wichtiger erscheint uns, zu untersuchen warum ChatGPT scheinbar so erfolgreich und kostenlos nutzbar ist.

  • Datensammelei: alle Konversationen, die Menschen mit der künstlichen Intelligenz führen, stehen dem Unternehmen zur Verfügung.
  • "intelligente Zufallsantworten": die Antworten des Bots unterliegen keiner Qualitätskontrolle, etwa durch eine Redaktion.
  • Copyright: Die Firma OpenAI gibt (bis jetzt) jedem Nutzer das Recht die erzeugten Texte als eigenes Produkt zu verwerten.
  • Open Source: Bis jetzt stellt die Firma OpenAI ihre Ergebnisse auf Open-Source-Basis zur Verfügung.

Ob das wirklich alle Ergebnisse sind, weiß man allerdings nicht, denn die größten Geldgeber sind Microsoft und der Tesla-Chef Elon Musk. Schon aus diesem Grund sollte man ChatGPT nicht mit privaten und sensiblen Daten füttern, denn diese werden in jedem Fall weiter verwertet. Im günstigsten Fall landen sie nur in der Datenbank des Programm, aber sie könnte sicher auch meistbietend auf dem Markt verkauft werden.

Mehr dazu bei https://www.rnd.de/digital/chatgpt-was-ist-das-und-was-kann-ich-damit-machen-YYBITUVA6BG4NENF6VXWWTTJZQ.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t3
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8339-20230318-was-bietet-chatgpt.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8339-20230318-was-bietet-chatgpt.htm
Tags: #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Frieden #Krieg #Open Source #Menschenrechte #Copyright #KI #AI #Kuenstliche Intelligenz #Tay #Twitter #Microsoft #Tesla #Musk #Rassist #DataMining

aktionfsa@diasp.eu

25.12.2022 Bewegungsprofile von Journalisten abgerufen

"Überwachung ist Verfehlung einzelner Mitarbeiter"

... behauptet das chinesische Unternehmen Bytedance zu den Überwachungen durch die TikTok App. Mittels der App waren die Bewegungen mehrerer US-Journalisten und ihrer Angehörigen überwacht worden. So etwas passiert eben, wenn man sich solche (a-) sozialen Netzwerke installiert.

Nachdem Bytedance die Vorfwürfe zurückgewiesen hatte, gesteht man nun ein, das wohl einzelne Mitarbeiter der Firma auf das Bewegungsprofil der Journalisten zugegriffen hätten. Was geht es die App überhaupt an, von welchem Ort der Erde ich meine schwachsinnigen Videos ins Netz stelle? Für die Berechtigung "Standort" gibt es absolut keine Zweckbindung und damit nach DSGVO auch kein Recht diese von meinem Gerät zu erfragen!

Hintergrund der Abfragen soll wohl der Versuch gewesen sein, festzustellen, ob sich die Journalisten mit Bytedance-Mitarbeitern getroffen haben. Das ginge aber nur, wenn dem Konzern oder zumindest den "geheimdienstlich tätigen Mitarbeitern" auch der Aufenthaltsort aller Bytedance-Mitarbeiter (automatisch) bekannt war. Bedeutet das, dass alle Bytedance-Mitarbeiter ihren Standort sowieso ständig an das Unternehmen verraten müssen?

Ansonsten geht in den USA die Diskussion weiter, ob man TikTok nicht wegen seiner "chinesischen Herkunft" und der "nationale Sicherheit der USA" verbieten solle. In 19 Bundesstaaten der USA ist die TikTok-App auf Diensthandys von Beamten bereits verboten oder blockiert.
Wir fragen nicht wann die anderen Bundesstaaten folgen, sondern wann das auch für die andern Apps gilt, die ständig unsere Daten für ihre illegalen Zwecke nutzen.

Mehr dazu bei https://www.heise.de/news/Tiktok-ueberwacht-Journalisten-per-App-7441812.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3rx
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8252-20221225-bewegungsprofile-von-journalisten-abgerufen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8252-20221225-bewegungsprofle-von-journalisten-abgerufen.htm
Tags: #TikTok #Verbot #USA #Journalisten #Standort #Verfolgung #Datenkraken #aSozialeNetzwerke #Verhaltensänderung #Verbraucherdatenschutz #Datenskandale #Datensicherheit #Überwachung #DataMining #Privatsphäre #Verhaltensänderung #Manipulation #Algorithmen #GAFAM #Big5