#seiteneffekte

aktionfsa@diasp.eu

29.07.2024 KI-Massenüberwachung bei Olympia

Nicht dasselbe, wenn zwei das gleiche tun?

Wo gibt's denn KI-Massenüberwachung?

  • Z.B. bei großen Konzerten,
  • Sportereignissen
  • und in Metrostationen und Bahnhöfen während stark frequentierter Zeiten,
  • bei einem Konzert von Taylor Swift
  • und den Filmfestspielen von Cannes.

Das heißt ja noch nicht, dass es funktioniert, aber die große Datensammlung findet statt. Allerdings sagten laut Telepolis französische Beamte, diese KI-Überwachungsexperimente seien gut verlaufen und es gebe "grünes Licht" für künftige Anwendungen.

Was soll denn die KI im Menschengewusel erkennen?

  • Veränderungen in der Größe und Bewegung von Menschenmengen,
  • zurückgelassene Objekte,
  • das Vorhandensein von Waffen,
  • die Verwendung von Waffen,
  • Körper auf dem Boden,
  • Rauch oder Flammen,
  • bestimmte Verkehrsverstöße.

Wir erinnern uns alle an den Aufschrei und die Sicherheits- und Datenschutzbedenken bei den Olympischen Winterspielen 2022 in Peking. Nun zeigt Frankreich, das können wir auch und viel "besser". Dann müssen wir (auch) jetzt die Warnung des FBI an "alle Athleten" ernst nehmen, ihre persönlichen Mobiltelefone zu Hause zu lassen und während ihres Aufenthalts in China in Frankreich nur ein Wegwerfhandy zu benutzen, weil die Überwachung durch die dortige Regierung so extrem ist.

Alle Kritik an solchem Tun wird in der EU mit dem (Schein-) Argument begegnet, dass die DSGVO nur eine personifizierte Sammlung von Daten betrachtet, nicht aber das KI-Scanning großer Menschenmengen ...

Der verlinkte Artikel auf Telepolis ist die Wiederveröffentlichung eines englisch-sprachigen Original-Beitrags der Autorin Anne Toomey McKenna, Juristin, Forscherin und Professorin an der Schnittstelle von Technologie, Datenschutz und Recht ander Richmond Law School. Der Artikel erschien in The Conversation unter einer CC-Lizenz.

Mehr dazu bei https://www.telepolis.de/features/KI-Massenueberwachung-bei-den-Olympischen-Spielen-in-Paris-9813296.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3BV
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8854-20240729-ki-massenueberwachung-bei-olympia.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8854-20240729-ki-massenueberwachung-bei-olympia.html
Tags: #Olympia #Großereignisse #Menschenmengen #KIAct #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Diskiminierung #Überwachung #DataMining #Rasterfahndung #DSGVO

aktionfsa@diasp.eu

###09.12.2023 Rahmen für KI-Act steht
Grundzüge können noch aufgeweicht werden

Nach 38 Stunden haben sich die Unterhändler von Europaparlament und EU-Staaten nun auf Grundzüge des "AI Act" geeinigt. Würde es in diesem Tempo weitergehen, dann hätte die EU als erste auf der Welt eine Regelung zur künstlichen Intelligenz vorgelegt. Die ebenfalls laufende Diskussion in den USA steckt noch in den Anfängen und ist - wie üblich - viel offener gegenüber den Wünschen der entsprechenden Lobby.

Positiv und negativ

Den vorliegenden Rahmen zu bewerten ist noch nicht endgültig möglich, weil in den weiteren Verhandlungen noch viele erreichte Punkte durch Formulierungen aufgeweicht werden können. Relativ fest stehen bislang folgende Punkte

  • Die Entwickler müssen die Qualität der für die Entwicklung der Algorithmen verwendeten Daten gewährleisten und sicherstellen.
  • Die KI-Entwicklung darf keine Urheberrechte verletzen.
  • Durch Künstliche Intelligenz geschaffene Texte, Bilder und Töne müssen entsprechend markiert werden.
  • Die Regeln für biometrische Gesichtserkennung durch KI, die eigentlich völlig verboten werden sollte, kann zu Zwecken der nationalen Sicherheit eingesetzt werden. Auch wenn sich dies auf "konkrete Bedrohungen" beschränkt wissen, wir, dass solche Regelungen künftig verallgemeintert werden können.
  • Für "risikoreiche" Anwendungen, etwa bei kritischer Infrastruktur, Sicherheitsbehörden und öffentlicher Personalverwaltung sollen "verschärfte Regelungen" gelten.

Vor 3 Wochen berichteten wir über die Vorbehalte von Deutschland und Frankreich gegen die Vorschläge zum KI-Act. Beide Länder hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basis-Technologie an sich. In den sogenannten Basismodelle, wie z.B. Chat-GPT, steckt die Wissensbasis und diese möchten die beiden Länder nicht aus Europa vertreiben. Auch Digital- und Verkehrsminister Volker Wissing appelliert, wie tagesschau.de schreibt, an die EU, international abgestimmt vorzugehen und "keinen Alleingang" zu wagen. So gibt es Befürchtungen, Start-Up-Unternehmen wie Aleph Alpha aus Deutschland und Mistral AI in Frankreich könnten in ihrer Entwicklung behindert werden.

Bei diesen Randgefechten verschwinden oft die für die Privatsphäre des Einzelnen wichtigen Punkte, wie die nun doch erlaubte Nutzung biometrischer Gesichtserkennung oder die Verwendung von KI bei Ermittlungen in Sicherheitsbehörden. Wir werden die Diskussion weiter beobachten ...

Mehr dazu bei https://www.spiegel.de/netzwelt/netzpolitik/ai-act-eu-erzielt-einigung-auf-regeln-fuer-kuenstliche-intelligenz-a-54d0ff03-d275-4c3a-b1b9-c491a0a258cd
und https://www.tagesschau.de/ausland/europa/eu-kuenstliche-intelligenz-regulierung-100.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xL
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8613-20231209-rahmen-fuer-ki-act-steht.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8613-20231209-rahmen-fuer-ki-act-steht.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Rasterfahndung

aktionfsa@diasp.eu

18.11.2023 KI-Act droht zu scheitern

Frankreich und Deutschland gegen strikte Regulierung

Eigentlich war man sich einig, dass die Regulierung künstlicher Intelligenz (KI) durch eine EU Verordnung (KI-Act) noch vor den Europawahlen im nächsten Jahr verabschiedet werden sollte. Nun stecken die Vorgespräche, die sogeannten Trilog Verhandlungen zwischen Rat, Parlament und Komission in einer Sackgasse.

Heise.de schreibt: Hauptstreitpunkt ist die Regulierung von "General Purpose AI Models" – also großen Sprachmodellen wie Llama 2 oder GPT-4, weil sich Frankreich und Deutschland dagegen ausprechen. Das ursprüngliche Ziel war

  • hochgefährliche Anwendungen, wie zum Beispiel Echtzeit-Biometrie, werden komplett verboten,
  • Hochrisiko-Anwendungen, wo die KI in medizinische Bereiche, in die Justiz oder Strafverfolgung eingreifen, werden streng reguliert,
  • andere nur ab und an kontrolliert.

Nun sprechen sich Frankreich und Deutschland dagegen aus die besonders "mächtigen" Sprachmodelle mit Audits durch eine noch zu schaffende EU-Behörde zu überwachen und zu regulieren. Die Befürchtung ist, dass solche Regulierungen innovative Start-ups abwürgen könnten. Dabei ging es bisher eher um die "Großen" - und bei den Großen ist eher zu befürchten, dass die "zu schaffende neue Behörde" von der Macht dieser Großen einfach eingewickelt und die Kontrolle zu einem bloßen Schaulaufen wird.

Wenn es nun bis zur Europawahl nichts wird, sollte man die Zeit nutzen, um die Risiken genauer zu spezifizieren. Dazu gehören neben Datenschutz, rechtlichen, Haftungs- und Copyright Fragen auch die unerträglichen Arbeitsbedingungen der Menschen die die KI trainieren, der immense Stromverbrauch der KI. Fragen der Diskriminierung von Frauen und Menschen, die nicht weiß sind, sind bekannt aber noch längst ist nicht klar, wie sie gelöst werden können.

Mehr dazu bei https://www.heise.de/hintergrund/AI-Act-KI-Gesetz-der-EU-droht-zu-kippen-9531914.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xn
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8590-20231118-ki-act-droht-zu-scheitern.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8590-20231118-ki-act-droht-zu-scheitern.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Rasterfahndung

aktionfsa@diasp.eu

25.10.2023 EU KI-Verordnung noch mangelhaft

Was sollte noch in die KI Verordnung?

Welche Gefahren durch einen leichtsinigen Einsatz von künstlicher Intelligenz (KI) geschehen können, haben wir bereits mehrfach beschrieben. Fatale Folgen fehlerhafter Algorithmen finden sich z.B.in diesem Artikel. Mit einem davon beginnt auch der verlinkte Artikel von netzpolitik.org:

Weil die niederländische Steuerbehörde einen fehlerbehafteten Algorithmus eingesetzt hatte, verlangte sie von mehr als 20.000 Familien zu Unrecht hohe Summen an Kindergeld zurück. Der Fehler stürzte unzählige Familien in Armut, mehr als 1.000 Kinder landeten in Pflegestellen.

Damit so etwas o.ä. nicht passiert wird seit einiger Zeit bei der EU über eine KI Verordnung diskutiert. Nun ist diese Verordnung fast fertig, aber wichtige Stellschrauben fehlen noch immer. Die Forderung von Datenschützern und Netzgemeinde sind u.a.:

  • Gesichtserkennung und andere inakzeptable Technologien verbieten,
  • Predictive Policing, Emotionserkennungs-KI und Systeme zur biometrischen Kategorisierung dürfen nicht gegen Menschen eingesetzt werden,
  • Transparenz: ein KI-Einsatz durch Behörden darf kein Geheimnis sein,
  • kein Blankoschein für Missbrauch unter dem Deckmantel „Nationale Sicherheit”,
  • keine Schlupflöcher in der Definition von „Hochrisiko“-KI,
  • regelmäßige Überprüfung im Betrieb: Systeme zeigen mitunter ihre Risiken erst, wenn sie sich in der konkreten Anwendung befinden.

Mit Stand heute will der Rat der EU ausgerechnet Sicherheits- und Migrationsbehörden von einer Transparenzpflicht befreien und für die „Nationale Sicherheit” wird ein Dechmantel über die geplanten Anwendungen gelegt. Das darf nicht passieren. Deshalb muss das EU Parlament noch einige Arbeit in den bis jetzt vorliegenden Entwurf der KI Verordnung investieren und den Ratsentwurf nicht einfach durchwinken.

Mehr dazu bei https://netzpolitik.org/2023/ki-verordnung-auf-der-zielgeraden-welche-schlupfloecher-die-eu-jetzt-noch-schliessen-muss/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3wW
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8565-20231025-eu-ki-verordnung-noch-mangelhaft.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8565-20231025-eu-ki-verordnung-noch-mangelhaft.html
Tags: #KIVerordnung #EURat #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Smartphone #Handy #Überwachung #DataMining #Rasterfahndung #Sozialbetrug

aktionfsa@diasp.eu

14.07.2023 Fatale Folgen fehlerhafter Algorithmen

Krasses Scheitern von "künstlicher Intelligenz"

Kurz vor dem Abschluss der EU-Verordnung zum Umgang mit Künstlicher Intelligenz vor 3 Wochen im Plenum des EU-Parlaments wurden auch eine Reihe von Beispielen bekant, in denen der Einsatz von Algorithmen zur "Steuerung des Gemeinwesens" fatale Folgen für die Betroffenen entwickelt hat.

Bei Heise.de gibt es die ausführlichen Geschichten dazu. In der Kurzfassung:

  • Eine holländische Gemeinde möchte zur Argumentation für eine Umgehungsstraße analysieren, welchen reinen Durchgangsverkehr es dort gibt. Das (ungewollte) Ergebnis sind die Smartphones - und damit Menschen - die im Ort das Zentrum einer religösen Minderheit in den Niederlanden besuchen.
  • Ein anderer Algorithmus soll die Datensätze aller Bezieher von Sozialzuschüssen systematisch überprüfen. Mehr als 10.000 junge Elternpaare werden des Sozialbetrugs bezichtigt, die Zuschüsse gestrichen und Rückzahlungen gefordert. Die Betroffenen standen vor großen finanziellen Problemen. Trotzdem wurde das Programm fortgeführt bis sich herausstellte, dass der Algorithmus den Faktor der "Doppelstaatsbürgerschaft" viel zu hoch bewertet hatte. Die weitaus meisten Fälle stellten sich als falsche Treffer (False Positives) heraus.
  • In Italien wollte man den notorischen Lehrermangel bekämpfen, in dem man dem bisherigen persönlichen Stellenbesetzungsverfahren einen Algorithmus vorschaltete. Die Nebenwirkungen waren verheerend, denn vielen erfahrenen Pädagogen wurden nur Aushilfslehrerstellen angeboten, oder sie wurden sogar plötzlich arbeitslos, weil der Algrithmus abgelehnte Bewerber automatsich als schlecht(er) qualifiziert einstufte.

Verteidiger der Digitalisierung werden argumentieren, dass in allen 3 Fällen die Algorithmen schlecht programmiert waren oder in einem "unpassenden" Kontext angewendet wurden. Also waren in allen Fällen auch Menschen die Schuldigen für die aufgetretenen Fehler.

Das mag stimmen, aber solange uns die "alleinseeligmachende Super-KI" nicht regiert, werden (glücklicherweise) Menschen die Planung und den Einsatz vornehmen. Wie heise.de feststellt, müssen diese mindestens besser ausgebildet werden: "Um fehlerhafte Algorithmen zu identifizieren, braucht es aber spezielle Skills und die sind zurzeit nicht einmal bei Datenschutzbehörden vorhanden."

Es reicht nicht, ein kleines Problem zu analysieren und dafür eine Lösung zu programmieren. In unserer Gesellschaft hängt alles von vielem ab. Schauen wir mal, welche Probleme die KI-Verordnung löst und welche sie vergrößert ...

Mehr dazu bei https://www.heise.de/news/Kuenstliche-Intelligenz-Drei-Beispiele-fuer-das-Scheitern-von-Algorithmen-9205911.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3v7
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8459-20230714-fatale-folgen-fehlerhafter-algorithmen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8459-20230714-fatale-folgen-fehlerhafter-algorithmen.html
Tags: #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Smartphone #Handy #Überwachung #DataMining #Rasterfahndung #Lehrerauswahl #Bewerber #Sozialbetrug
Erstellt: 2023-07-14 07:28:31