#datamining

aktionfsa@diasp.eu

11.12.2024 Schleswig-Holstein auf Abwegen

Katastrophales "Sicherheits- und Migrationspaket"

"Es ist nicht alles Gold was glänzt." Vor wenigen Tagen hatten wir die schwarz-grüne Landesregierung in Schleswig-Holstein noch gelobt, wegen des geplanten Umstiegs der Arbeitsplätze in der Verwaltung auf das quelloffene Betriebssystem Linux.

Nun ist es an der Zeit diese Regierung wegen ihres "Sicherheits- und Migrationspakets" zu verdammen, denn es beinhaltet u.a.

  • verschiedene Arten der biometrischen Gesichtserkennung,
  • Abgleich der Daten aus öffentlich zugänglichen Quellen des Internets mit den polizeilichen Fahndungsdaten,
  • dann hat die Polizei ein eigenes Clearview oder PimEyes,
  • das ist ein klarer Verstoß gegen EU-Datenschutzregeln,
  • aber die EU-KI-Verordnung verbietet "die Verwendung von KI-Systemen für die Gesichtserkennung",
  • Einsatz von Überwachungstechnik bei Großveranstaltungen oder an Kriminalitätsschwerpunkten,
  • Einsatz von Staatstrojanern in Form der sog. „Quellen-TKÜ“.

Dieser Katalog aus dem Gruselkabinett in Kiel wiegt um einiges schwerer als die wünschenswerte mögliche Einführung von Linux.

Ist das der Vorgeschmack auf eine mögliche schwarze-grüne Koalition im Bund?

Mehr dazu bei https://netzpolitik.org/2024/schwarz-gruene-landesregierung-schleswig-holstein-fuehrt-gleich-mehrere-arten-von-gesichtserkennung-ein/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3Ek
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8994-20241211-schleswig-holstein-auf-abwegen.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8994-20241211-schleswig-holstein-auf-abwegen.html
Tags: #Polizei #Geheimdienste #Hacking #Schleswig-Holstein #Sicherheitspaket #Migrationspaket #Lauschangriff #Überwachung #Vorratsdatenspeicherung #Videoüberwachung #Rasterfahndung #DataMining #KI-Act #AI #Staatstrojaner #QuellenTKÜ #Smartphone #Handy

aktionfsa@diasp.eu

09.11.2024 Whistleblower aus einem US Geheimdienst

Interview mit Thomas Drake

Seit unser Ehrenmitglied Edward Snowden 2013 die weltweite Überwachung der Menschen öffentlich machte, haben wir nur von wenigen Whistleblowern aus den US Geheimdiensten oder dem Militär gehört. Wir erinnern uns noch gut an den 2021 von der US Justiz verfolgten Drohnenpiloten Daniel Hale.

Nun hat die Junge Welt den Whistleblower Thomas Drake interviewt. Darin erzählt Drake die Geschichte der NSA, eines Geheimdienstes, der im Herbst 1952 so geheim allein durch einen Erlass des US Präsidenten gegründet wurde, dass seine Existenz eine ganze Weile lang im Verborgenen blieb.

In seinem Interview gibt er nicht nur Geschichtsunterricht, sondern weist uns auf die bevorstehenden Gefahren durch die allumfassende Überwachung hin. Künftig - und auch bereits jetzt - wird diese Überwachung durch künstliche Intelligenz (KI) - beliebig erweitert.

Seit 9/11 arbeiten die US Geheimdienste nach dem Heuhaufenprinzip - alles wird gesammelt - und dann werden die "Stecknadeln" gesucht. In der Regel weisen wir an dieser Stelle immer auf die False Positives, die fälschlicherweise Verdächtigten, hin, die dann gezwungen sind ihre Unschuld zu beweisen, wenn sie nicht wie bei den Drohnenmorden üblich einfach zu Kollatealschäden erklärt werden.

Insbesondere beunruhigt ihn Überwachungs-KI in Verbindung mit moderner Kriegführung. Zitat: KI ist keine wirkliche Intelligenz, sondern ein großes Sprachmodell. Es sind Algorithmen, die über Rückkopplungsschleifen verfügen, um die Effizienz der Zielerfassung zu erhöhen. Dann werden diese im Feld eingesetzt. Die KI wird Ziele finden. Das Tragische daran ist, dass man eine Menge Unschuldige töten wird. Genau diese Kritik haben wir auch in unserer Reihe zur KI (Teil 1) aufgenommen und werden sie in den folgenden Teilen aus ethischer Sicht betrachten.

Auch Thomas Drake weist bei dieser schrecklichen Tatsache auf den mit dem Daniel-Ellsberg-Preis ausgezeichneten Whistleblower Daniel Hale hin, der enthüllt hatte, dass 90 Prozent der Opfer früher KI-Targeting-Algorithmen völlig unschuldig waren.

Mehr dazu bei https://www.jungewelt.de/artikel/487063.whistleblower-im-us-geheimdienst-das-mantra-war-sammelt-einfach-alles.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3DL
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8961-20241109-whistleblower-aus-einem-us-geheimdienst.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8961-20241109-whistleblower-aus-einem-us-geheimdienst.html
Tags: #KI #AI #künstlicheIntelligenz #ThomasDrake #NSA #Geheimdienste #USA #Missbrauch #Kollateralschaden #Drohnenkrieg #Lauschangriff #Überwachung #Videoüberwachung #Rasterfahndung #DataMining #Heuhaufen #Datenbanken

waynerad@diasp.org

You should record everything about yourself you possibly can, says Arya Voronova.

"We emit information just like we emit heat. As long as we are alive, there's always something being digitized; even your shed in the woods is being observed by a spy satellite. The Internet revolution has made information emissivity increase exponentially, a widespread phenomenon it now uses to grow itself, since now your data pays for online articles, songs, and YouTube videos. Now there are entire databanks containing various small parts of your personality, way more than you could ever have been theoretically comfortable with, enough to track your moves before you're aware you're making them."

"Your data will be collected by others no matter your preference, and it will not be shared with you, so you have to collect it yourself. Once you have it, you can use your data to understand yourself better, become stronger by compensating for your weaknesses, help you build healthier relationships with others, living a more fulfilling and fun life overall. Collecting data also means knowing what others might collect and the power it provides, and tyis can help you fight and offset the damage you are bound to suffer because of datamining."

"My laptop runs Linux, a hacker-friendly OS. I quickly wrote a Python script that polls the currently focused window, writing every change into a logfile, each day a new file."

"I started tacking features on the side. One thing I added was monitoring media file playback, logging it alongside window title changes. Linux systems expose this information over Dbus, and there's a ton of other useful stuff there too! And Dbus is way easier to work with than I've heard, especially when you use a GUI explorer like D-Feet to help you learn the ropes."

Hack On Self: The Alt-Tab Annihilator | Hackaday

#solidstatelife #surveillance #datamining

aktionfsa@diasp.eu

18.09.2024 Hessen scheitert mit Verfassungsschutzgesetz

HVSG in Teilen verfassungswidrig

Das Bundesverfassungsgericht (BVerfG) hat Teile des Hessischen Verfassungsschutzgesetzes (HVSG)für nichtig erklärt und bei anderen Formulierungen schnelle Nachbesserungen verlangt. In seinem Beschluss kritisiert es im einzelnen:

  • "eine engmaschige langandauernde Überwachung der Bewegungen im Raum" ohne "dafür hinreichende Eingriffsschwelle“,
  • der Einsatz von verdeckten Ermittler:innen verstößt gegen die Verfassung,
  • der Datenaustausch innerhalb der Strafverfolgungsbehörden knüpft nicht an „hinreichend gewichtige Straftaten“.

Nach den Bayern hat es damit auch die Hessen erwischt, dass sie es mit den Bürgerrechten nicht so genau nehmen wollten. Bis Ende 2025 hat Hessen Zeit das Gesetz nachzubessern. Aber auch in der Zwischenzeit dürfen die beanstandeten Punkte nicht angewendet werden.

Die Verfassungsbeschwerde hatten die Gesellschaft für Freiheitsrechte (GFF), die Humanistische Union (HU), die Datenschützer Rhein Main und das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung eingereicht und sind mit dem Urteil soweit zufrieden. Die Menge der Überwachungsmöglichkeiten ist inzwischen so gewaltig, dass das BVerfG immer öfter der Meinung ist, dass die Überwachungsgesamtrechnung für den einzelnen Bürger eine Einschränkung seiner Grundrechte darstellt. (siehe auch: Überwachungsgesamtrechnung wird immer umfangreicher)

Mehr dazu bei https://netzpolitik.org/2024/bundesverfassungsgericht-der-hessische-verfassungsschutz-darf-zu-viel/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3CQ
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8907-20240918-hessen-scheitert-mit-verfassungsschutzgesetz.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8907-20240918-hessen-scheitert-mit-verfassungsschutzgesetz.html
Tags: #Verfassungsschutzgesetz #Hessen #Bayern #verfassungswidrig #Bewegungsprofil #Eingriffsschwelle #verdeckteErmittler #V-Leute #DataMining #Rasterfahndung #Polizei #Geheimdienste #Verbraucherdatenschutz #Videoüberwachung #Lauschangriff

aktionfsa@diasp.eu

17.09.2024 Unsere Privatsphäre schützen!

Meine Daten gehören mir

Aktion Freiheit statt Angst ist bei der diesjährigen Engagementwoche im September wieder mit dabei.

Am Di., 24.09.2024 ab 19h
im Antikriegscafé COOP,
Rochstr. 3, 10178 Berlin

Dort wollen wir gemeinsam die Gefahren für unsere Daten durch staatliche Überwachung und den Datenhunger der Wirtschaft diskutieren und Schutzmöglichkeiten für unsere Geräte vom Handy über Laptops bis zum altgedienten PC vorstellen.

  • Wo sind unsere Daten in Gefahr und was bedeutet das für unser Leben?
  • Wie machen die Internetkonzerne mit "kostenlosen" Diensten Milliarden?
  • Wie können wir uns schützen?
  • Was sind die Alternativen zu den Big5 ?
  • Was können die ersten Schritten zurück zu einer Datenautonomie sein?

Wir werden in den 2 Stunden nicht alle Probleme lösen können, aber wir können im gemeinsamen Gespräch Wege aufzeigen und bieten an, auf diese in weiteren Treffen einzugehen.

Da wir bei vergangenen ähnlichen Veranstaltungen bereits einiges an Material gesammelt haben, empfehlen wir euch zum Einstieg

Wir freuen uns, wenn ihr uns vorher mit einer kurzen Mail an kontakt@aktion-fsa.de euer Kommen ankündigt.

Mehr dazu bei https://www.aktion-freiheitstattangst.org/de/articles/7898-20220118-persoenliche-daten-sollen-privatangelegenheit-bleiben.html
und https://www.engagement-macht-stark.de/engagementkalender/detail/meine-daten-gehoeren-mir-2/
und https://www.aktion-freiheitstattangst.org/events/3672-20240924.html
Kategorie[26]: Verbraucher- & ArbeitnehmerInnen-Datenschutz Short-Link dieser Seite: a-fsa.de/d/3CP
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8906-20240917-unsere-privatsphaere-schuetzen.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8906-20240917-unsere-privatsphaere-schuetzen.html
Tags: #Engagementwoche #Datenkraken #Twitter #Facebook #Alfabet #Google #Amazon #EU #aSozialeNetzwerke #USA #Meinungsmonopol #Meinungsfreiheit #Verbraucherdatenschutz #Datenskandale #Datensicherheit #Überwachung #DataMining #Privatsphäre #Verhaltensänderung

aktionfsa@diasp.eu

12.09.2024 Big-Data-Analysen durch Polizei

Abgleich mit Gesichtern und Stimmen im Internet

Auch wenn fast täglich ebenfalls 3 unschuldige Menschen bei Verkehrsunfällen sterben, wie bei dem verbrecherischen Messerangriff in Solingen, wird dieser von Politik und Medien weiter genutzt, um unsere Grundrechte einzuschränken. Nach einer beispiellosen Hetze gegen Menschen mit Migrationshintergrund in den letzten Wochen wird das Thema nun auf die innere Sicherheit ausgedehnt.

Heise.de berichtet: "Die Bundesregierung verschärft ihre Pläne zur Netzüberwachung. Zusätzlich zur Ankündigung von Ende August, Fotos und Videos aus dem Internet polizeilicher Gesichtserkennung zu unterziehen, sollen jetzt auch Videos und Tonaufnahmen mittels Stimmerkennung gerastert werden."

Die Ampel hat ihr "Sicherheitspaket" nach der tödlichen Messerattacke in Solingen nun erweitert um einen Teil zur "Verbesserung der Terrorismusbekämpfung". Während die Polizei bisher die Aufgabe der Strafverfolgung hatte, soll sie zukünftig auch zu Zwecken der Gefahrenabwehr "biometrische Daten zu Gesichtern und Stimmen" mithilfe automatisierter technischer Verfahren mit Informationen etwa aus Sozialen Netzen abgleichen dürfen.

So sollen künftig Lichtbild- und Videodateien gerastert werden, "die gegen oder ohne das Einverständnis des Betroffenen von Dritten ins Internet übertragen werden oder Informationen unfreiwillig preisgeben", schreibt Heise.de. Dies wäre allerdings eine "biometrische Rundum-Überwachung" und damit ein Bruch des eigenen Koalitionsvertrags.

Es ist auch weit mehr als das Durchforsten der Videos und Sprache von Selbstdarstellungen von Terrorgruppen mit der das Vorhaben angekündigt wurde. Nun gibt es fast keine Grenze mehr für beliebige Videos oder Fotos im Netz, obwohl ein Abgleich mit Daten "aus im Internet öffentlich zugänglichen Echtzeit-Lichtbild- und Echtzeit-Videodateien ausgeschlossen" sein sollte. Diesen Widerspruch erkläre, wer es vermag ...

Auf jeden Fall sollen BKA und Bundespolizei mit Künstlicher Intelligenz (KI) in einem ersten Schritt die große Menge polizeilicher Datenbanken zusammenführen und durchforsten dürfen. Damit können sie dann ihre KI-Anwendungen für Big-Data-Analysen im Stil von Palantir & Co fit machen. Allein schon dieses "Sieben" der eigenen Daten dürfte einige False Positives liefern, also fehlerhaft als verdächtig Erkannte, die dann wieder entgegen der Unschuldsvermutung ihre eigene Unschuld beweisen müssen ...

Mehr dazu bei https://www.heise.de/news/Solingen-Polizei-soll-Gesichts-und-Stimmerkennung-im-Netz-durchfuehren-9690314.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3CJ
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8901-20240912-big-data-analysen-durch-polizei.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8901-20240912-big-data-analysen-durch-polizei.html
Tags: #KI #AI #künstlicheIntelligenz #Biometrie #Polizei #Geheimdienste #Hacking #Gesichtserkennung #Stimmenerkennung #Rasterfahndung #DataMining #Analyse #Palantir #Missbrauch #Verbraucherdatenschutz #Datensicherheit

aktionfsa@diasp.eu

29.07.2024 KI-Massenüberwachung bei Olympia

Nicht dasselbe, wenn zwei das gleiche tun?

Wo gibt's denn KI-Massenüberwachung?

  • Z.B. bei großen Konzerten,
  • Sportereignissen
  • und in Metrostationen und Bahnhöfen während stark frequentierter Zeiten,
  • bei einem Konzert von Taylor Swift
  • und den Filmfestspielen von Cannes.

Das heißt ja noch nicht, dass es funktioniert, aber die große Datensammlung findet statt. Allerdings sagten laut Telepolis französische Beamte, diese KI-Überwachungsexperimente seien gut verlaufen und es gebe "grünes Licht" für künftige Anwendungen.

Was soll denn die KI im Menschengewusel erkennen?

  • Veränderungen in der Größe und Bewegung von Menschenmengen,
  • zurückgelassene Objekte,
  • das Vorhandensein von Waffen,
  • die Verwendung von Waffen,
  • Körper auf dem Boden,
  • Rauch oder Flammen,
  • bestimmte Verkehrsverstöße.

Wir erinnern uns alle an den Aufschrei und die Sicherheits- und Datenschutzbedenken bei den Olympischen Winterspielen 2022 in Peking. Nun zeigt Frankreich, das können wir auch und viel "besser". Dann müssen wir (auch) jetzt die Warnung des FBI an "alle Athleten" ernst nehmen, ihre persönlichen Mobiltelefone zu Hause zu lassen und während ihres Aufenthalts in China in Frankreich nur ein Wegwerfhandy zu benutzen, weil die Überwachung durch die dortige Regierung so extrem ist.

Alle Kritik an solchem Tun wird in der EU mit dem (Schein-) Argument begegnet, dass die DSGVO nur eine personifizierte Sammlung von Daten betrachtet, nicht aber das KI-Scanning großer Menschenmengen ...

Der verlinkte Artikel auf Telepolis ist die Wiederveröffentlichung eines englisch-sprachigen Original-Beitrags der Autorin Anne Toomey McKenna, Juristin, Forscherin und Professorin an der Schnittstelle von Technologie, Datenschutz und Recht ander Richmond Law School. Der Artikel erschien in The Conversation unter einer CC-Lizenz.

Mehr dazu bei https://www.telepolis.de/features/KI-Massenueberwachung-bei-den-Olympischen-Spielen-in-Paris-9813296.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3BV
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8854-20240729-ki-massenueberwachung-bei-olympia.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8854-20240729-ki-massenueberwachung-bei-olympia.html
Tags: #Olympia #Großereignisse #Menschenmengen #KIAct #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Diskiminierung #Überwachung #DataMining #Rasterfahndung #DSGVO

aktionfsa@diasp.eu

18.04.2024 KI in der Kriegsführung

KI fehlt in der Genfer Konvention

Während man bei der ersten KI Verordnung der Welt die möglichen Verzerrungen und Diskriminierungen bei ihrem Einsatz in Wirtschaft und im Geschäftsleben und möglichen Arbeitsplatzverluste mit Aufmerksamkeit betrachtet hat, wird der Einsatz von KI im militärischen Bereich dort überhaupt nicht erwähnt.

Cathy Mulligan weist jedoch bei Netzpolitik.org in einem Gastbeitrag auf folgendes hin: Automatisierte Entscheidungsfindung oder automatisierte Waffen automatisieren nicht nur den Krieg an sich, sondern sie können auch die Rollen der Bürger:innen innerhalb der Genfer Konventionen verändern und verschieben.

"Kriegsführung mit der Geschwindigkeit von Computern, nicht mit der Geschwindigkeit von Menschen"

... sagt Eric Schmidt, ehemaliger CEO von Google und nebenbei als Vorsitzender des Advisory Committee for the Department of Defense und der National Security Commission on Artificial Intelligence tätig. Ihm ist es mit Blick auf das (militärische) Verhältnis zwischen den Inkas und den spanischen Konquistadores wichtig, einen vergleichbaren "Qualitätsunterschied" herzustellen, so dass die USA zu einer vollautomatischen Kriegsführung fähig sind.

SDI nach 40 Jahren realistisch

US Präsident Reagans Star Wars Pläne aus den 80-iger Jahren sind heute möglich, denn KI kann die Flugbahnen ballistischer Raketen im Voraus berechnen, um sie dann präventiv abzufangen oder umzulenken. In den Projekten Maven der USA und gemeinsamen Projekten wie AUKUS von Australien, den USA und Großbritannien wird seit einigen Jahren aktiv an der Entwicklung automatisierter robotischer Waffensysteme gearbeitet. Natürlich wird gleichzeitig an neuen Waffen, wie Hyperschallraketen gearbeitet, die wiederum diese Systeme austricksen sollen.

Dieser Wettlauf ist nicht neu, jedoch ergibt sich eine neue Betrachtung bei einem Blick in die Genfer Konventionen und ihre Zusatzprotokolle, die den Kern des humanitären Völkerrechts bilden: "… eine Person, die sich direkt an den Feindseligkeiten beteiligt, wird als rechtmäßiges Ziel betrachtet." (Dabei wollen wir nicht die Leo-II-Diskussion vom vergangenen Jahr oder die Zielkoordinaten für Taurus aufleben lassen ...)

Entscheidender mit Blick auf die KI wird dann sein, wo liegen die (verteilten) KI Datenbanken und wer betreut diese. Nach obiger Defintion sind eventuell alle diese "Zivilisten" ein rechtmäßiges Ziel für den Gegner. Oft kommt es in kriegerischen Auseinandersetzungen neuerdings auch zu Cyberangriffen. Dazu werden regelmäßig auch Computer von Zivilisten genutzt, die diese entweder für über KI koordinierte Distributed-Denial-of-Service-Angriffe (DDoS) zur Verfügung gestellt haben oder diese wurden durch Computerviren für diese Aktivitäten gehackt und genutzt.

Allein das Herumtragen eines Smartphones kann bereits durch die Bewegungsprofile "militärische Informationen" über Staus oder Fluchtbewegungen liefern und damit zu einem (eventuell bedeutenden) Dateninput für den Kriegsverlauf werden.

Human-in-the-Loop

Zurück zu dem Satz von Eric Schmidt, dieser macht den Unterschied zwischen KI-Kriegsführung und der Drohung mit Atombomben deutlich. Während ein interkontinentaler Atomraketenangriff noch eine Reaktionszeit von 20 Minuten lässt, kann die KI in Sekundenbruchteilen "entscheiden". Deshalb müssen, wie Cathy Muligan sagt, geschulte Entscheider an bestimmten Stellen in die KI-Prozesse einbezogen [werden], um sicherzustellen, dass ein Mensch die Entscheidungen trifft und nicht die Algorithmen selbst. Auf diese Weise soll sichergestellt werden, dass menschliche Ethik und Moral in die Entscheidungsprozesse einfließen und somit die Einhaltung des humanitären Völkerrechts gewährleistet ist.

Wie auch Frau Mulligan, sehen wir darin jedoch keine Lösung, denn diese geschulten Entscheider werden je nach ihrer Entscheidung und nach Ausgang des Konflikts von der einen oder andern Seite als Kriegsverbrecher an die Wand gestellt. Kein Mensch kann den auf ihn einstürmenden Wust an Daten im richtigen Augenblick sinnvoll bewerten. Eine Lösung kann nur in einer Rückkehr zu nachprüfbaren Abrüstungsvereinbarungen im Rahmen der UNO liegen und nie in Kriegen oder angeblich überlegener Kriegstechnik.

Das wollte schon Tucholsky mit seinen Worten "Soldaten sind Mörder" ausdrücken - KI-Unterstützung macht das Morden nicht besser - und damit bleibt uns allen nur eine Konsequenz bleibt: Nie wieder Krieg!

Mehr dazu bei https://netzpolitik.org/2024/kuenstliche-intelligenz-automatisierte-kriegsfuehrung-und-die-genfer-konvention/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3A8
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8749-20240418-ki-in-der-kriegsfuehrung.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8749-20240418-ki-in-der-kriegsfuehrung.html
Tags: #Google #KIAct #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Gesichtserkennung #Fernerkennung #Anonymisierung #FalsePositives #GenferKonvention #UNO #Diskiminierung #Überwachung #DataMining #Atomwaffen #Militär #Bundeswehr #Aufrüstung #Waffenexporte #Drohnen #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln

aktionfsa@diasp.eu

15.03.2024 Erste KI Verordnung der Welt

Regelungen zur Einschränkung von Überwachung völlig unzureichend

Die EU hat es nun doch noch geschafft, die KI Verordnung zu beschließen. Bis zuletzt stand ein beschlussfähiges Ergebnis auf der Kippe, denn wie wir berichtet hatten, hatten Deutschland und Frankreich plötzlich Bedenken, die "europäische KI Entwicklung einzuschränken". (KI-Act droht zu scheitern)

Wie bei der EU üblich, sollen wir nun mit einem Kompromiss leben, der vieles anspricht, aber nur wenig regelt. Schauen wir uns die Ergebnisse genauer an.

  • Verboten wird der Einsatz von KI
  • bei der Gefühlserkennung,
  • für Social Credit Systeme.
  • Eine Kennzeichnung wird vorgeschrieben für KI Anwendungen
  • die Texte oder
  • Bilder generieren.
  • Für sogenannte "Hochrisikotechnologien" werden "Auflagen" gemacht, das sind
  • die Gesichtserkennung,
  • das autonome Fahren,
  • medizinische Diagnosen und
  • das Personal-Recruiting.

Der Fehler im System

... springt uns direkt ins Gesicht. Warum werden ausgerechnet für "Hochrisikotechnologien" Ausnahmen gemacht. Diese sollte am besten ganz verboten oder zumindest so stark reguliert werden, dass niemand durch sie Schaden erleiden kann - beim autonomen Fahren ist das Lebensgefahr, wie schon einige Vorfälle gezeigt haben. Gerade die Gesichtserkennung war ein grundsätzlicher Diskussionspunkt zwischen Parlament und Kommission und die Vertreter des Staates haben sich wieder einmal durchgesetzt. Biometrische Gesichtserkennung soll in "Gefahrenlagen" unter richterlicher Aufsicht möglich sein.

Welche regulatorische "Steuerung" dann künftig verhindern soll, dass KI-Algorithmen unsere Zwangs-ePA (elektronische Patientenakte) aufhübscht steht völlig in den Sternen. Wie man regulieren will, dass nicht eine KI, sondern ein Mensch künftig die Bewerbungsunterlagen von nicht-weißen Männern und Frauen gleich aussortiert, wird auch noch interessant. Fazit bleibt, dass dieser erste Aufschlag der EU eigentlich kein Problem löst, das wir uns mit dem Einsatz von KI geschaffen haben.

Wie wenig praxistauglich die Verordnung ist, zeigt ja schon der "Skandal" um das Foto der britischen Prinzessin Kate, die ihr Foto wohl mit den (wenigen und harmlosen) KI-Tools von Adobe Photoshop bearbeiten ließ - und es nicht so gekennzeichnet hat. Dazu müsste ja jedes Programm sagen, dass es KI-Software enthält und das würde wieder erfordern, dass der Begriff KI erst einmal eindeutig definiert wird.

Statt die Fehler der Verordnung im Kleinen zu suchen, sind die grundrechtlichen Kritiken ernst zu nehmen. Dazu zitieren wir Marius Tudor, ehemaliger Berater des Europäischen Parlaments, der feststellt: "Dieses Gesetz schränkt den Zugang zum Arbeitsplatz und/oder zu privaten/öffentlichen Räumen durch die Verwendung der Fernidentifizierung von Bürgern ein. Ein Gesetz, das nicht in die europäische Gesetzgebung gehört, zumindest nicht in dieser Form, und das dennoch umgesetzt wird und mehr Schaden als Nutzen anrichtet."

Seine Kritik an der Verordnung über künstliche Intelligenz sieht einen Verstoß gegen Artikel 16 des Vertrags über die Arbeitsweise der Europäischen Union,

  • in dem das Recht auf Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten verankert ist,
  • sowie gegen das Grundrecht auf Schutz personenbezogener Daten, das insbesondere durch die Verordnungen (EU) 2016/679 und (EU) 2018/1725
  • sowie die Richtlinien 2016/680 und 2002/58/EG geschützt wird.
  • Dieses Gesetz verstößt gegen die Richtlinie 2000/43/EG des Rates zur Anwendung des Gleichbehandlungsgrundsatzes ohne Unterschied der Rasse oder der ethnischen Herkunft und
  • gegen die Richtlinie 2000/78/EG des Rates zur Festlegung eines allgemeinen Rahmens für die Verwirklichung der Gleichbehandlung in Beschäftigung und Beruf.
  • Ferner verstößt das Gesetz gegen den Vertrag über die Arbeitsweise der Europäischen Union, der Diskriminierungen aus Gründen der Staatsangehörigkeit, der ethnischen Herkunft, des Geschlechts, des Alters, der sozialen Stellung oder der körperlichen Merkmale verbietet,
    • sowie gegen die Grundprinzipien der Freiheit und Gleichheit, auf denen die EU beruht.

Nun muss die jetzt beschlossene Verordnung erst einmal in den Mitgliedsstaaten ankommen und dabei ist noch mit weiteren Verwässerungen zu rechnen. Wir werden das Thema weiter verfolgen ...

Mehr dazu bei https://www.ardmediathek.de/video/wirtschaft-vor-acht/wirtschaft-vor-acht/das-erste/Y3JpZDovL2Rhc2Vyc3RlLmRlL3dpcnRzY2hhZnQgdm9yIGFjaHQvMjAyNC0wMy0xNF8xOS01NS1NRVo
und https://uncutnews.ch/das-europaeische-parlament-fuehrt-die-totale-kontrolle-der-buerger-durch-die-hintertuer-ein-biometrische-diktatur-nach-chinesischem-vorbild/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3zw
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8714-20240315-erste-ki-verordnung-der-welt.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8714-20240315-erste-ki-verordnung-der-welt.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Gesichtserkennung #Fernerkennung #autonomeKfz #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Bewerbungen #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Diagnosen

aktionfsa@diasp.eu

18.02.2024 Verlaufsprotokolle des Polizeikessels jetzt öffentlich

"... nicht unkontrolliert ablaufen lassen"

Eine Demonstration für Versammlungsfreiheit am 3. Juni 2023 zum sogenannten „Tag X” in Leipzig führte dazu, dass mehr als 1300 Menschen im Juni 2023 auf einer Wiese im Süden Leipzigs in einem Polizeikessel elf Stunden ausharren mussten. Die Betroffenen wissen nun wie es um die Versammlungsfreiheit in Sachsen bestellt ist.

"Frag den Staat" hat nun den detaillierten Verlaufsbericht des Einsatzes sowie mehrere im Nachgang erstellte Protokolle durch eine Anfrage nach dem neuen Sächsischen Transparenzgesetz aus dem geheimen Dokumentenknast "Verschlusssache – nur für den Dienstgebrauch" (VS-NfD) befreit.

Aus diesen Dokumenten ergibt sich, dass bereits mehr als eine halbe Stunde vor Beginn des Polizeikessels der zuständige Polizeiführer erstmals anordnete, dass die Teilnehmer der Veranstaltung „nicht unkontrolliert ablaufen dürfen“. Zu diesem Zeitpunkt gab es einzelne vermummte Personen, jedoch keine gewalttätige Aktionen oder deren Vorbereitung, wie etwa Steine sammeln.

Kurz darauf wird von der Polizeiführung präzisiert bei jeder Person eine Identitätsfeststellung durchzuführen und "jeden unkontrollierten Abgang" von der Demo zu verhindern. Im Einsatzprotokoll geht die Polizei von 500 Personen aus, die sie festgesetzt hat, andere Protokolle notieren die Zahl 300 bis 400. In dem Polizeikessel befinden sich 1323 Menschen – darunter mehr als hundert Jugendliche und zwei Kinder.

Pauschal allen Eingekesselten die Beteiligung an Straftaten zu unterstellen und gegen sie zu ermitteln, hält der Polizeirechtler Clemens Arzt schon an den folgenden Tagen gegenüber dem MDR für rechtlich unzulässig: "Eine solche Maßnahme gegen Hunderte von Menschen für eine so lange Dauer, die scheint mir rechtlich nicht zulässig gewesen zu sein." Er forderte die Betroffenen dazu auf dagegen vorzugehen. Dies insbesondere, weil alle Eingeschlossenen im Polizeikessel nach Rücksprache mit einem Staatsanwalt als Tatverdächtige von Straftaten geführt und erkennungsdienstlich behandelt werden sollten.

Um 22:01 Uhr notiert die Polizei 100 Personen abgearbeitet zu haben, um 0 Uhr sind es 250, um 1:45 Uhr werden noch 300 Personen im Kessel vermutet. Auch nach einigen Tagen spricht die Polizei "nur" von 1031 Identitätsfeststellungen, inzwischen liegt die offizielle Zahl bei weit über 1300 Eingekesselten. Warum die Polizei mit ihren Personenschätzungen so daneben lag - wir kennen das ja auch oft von den Zählungen bei Demonstrationen - erstaunt, denn der Polizeibericht bestätigt, dass bereits um 17:06 Uhr Polizisten in Zivil inmitten der Versammlung im Einsatz waren.

Genauso unerklärlich ist, dass in den Protokollen bereits um 18 Uhr die Anfrage der Polizei nach Wasser und Toilettenmöglichkeiten für 800 Personen vermerkt wird, wo sie nach ihren Eintragungen von 300 Personen ausging. Um 22:57 Uhr wurde wegen der nächtlichen Temperaturen der Bedarf an Rettungsdecken wegen drohender Unterkühlung notiert. Diese trafen erst um fünf Uhr morgens vor Ort ein und wurden "nicht mehr benötigt“.

Frag den Staat schließt seinen Bericht mit der Feststellung: Gegen alle 1321 strafmündigen Personen, die in jener Nacht im Leipziger Kessel ausharren mussten, laufen seitdem Strafverfahren. Sie alle sind des Landfriedensbruchs in einem besonders schweren Fall beschuldigt. Lediglich die beiden Kinder, die inmitten der Gruppe von der Polizei festgehalten wurden, sind davon ausgenommen. Zudem gibt es Hinweise, wonach diese 1321 Personen zwischenzeitlich durch den Sächsischen Verfassungsschutz im gemeinsamen Informationsportal der Nachrichtendienste (NADIS) erfasst worden sein sollen – zugeordnet dem Phänomenbereich Linksextremismus.

Der VS gibt dazu natürlich keine Auskunft ...
Frag den Staat hält das nicht für "natürlich" und hat deshalb einen Antrag auf Erlass einer einstweiligen Anordnung gegen Sachsens Verfassungsschutz eingereicht.

Mehr dazu bei https://fragdenstaat.de/blog/2024/02/12/chaos-und-widerspruche-zum-leipziger-polizeikessel/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3z3
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8686-20240218-verlaufsprotokolle-des-polizeikessels-jetzt-oeffentlich.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8686-20240218-verlaufsprotokolle-des-polizeikessels-jetzt-oeffentlich.html
Tags: #Leipzig #Polizeikessel #Bodycam #Polizeieinsatz #Menschenwürde #anlasslos #Verhaltensänderung #Öffentlichkeit #Lauschangriff #Überwachung #DataMining #Videoüberwachung #Polizeigewalt #Verfassungsschutz #VS

aktionfsa@diasp.eu

14.02.2024 Big Brother in Bayern

Verhaltensvorhersagen möglich ...

... aber beliebig fehlerhaft. Die Folgen von "Predictive Policing" sollte man sich stets vor Augen halten, bevor man sie auf die Menschen los lässt. Es kommt zu beliebig vielen "False Positives", also falsch Verdächtigten, die dann unter großen Schwierigkeiten ihre Unschuld beweisen müssen. Wie schwer es ist zu beweisen, dass man irgend etwas nicht getan hat, das wissen die Betroffenen nur zu gut.

Bereits in Hessen und NRW wird eine Software eingesetzt, die nun auch die Polizei in Bayern zu nutzen plant. Es handelt sich um die Analysesoftware "Vera", die wiederum auf Palantirs "Gotham" beruht. Die Junge Welt berichtet nun, dass der bayerische Landesdatenschutzbeauftragte, Thomas Petri, vom Landeskriminalamt fordert, den Testbetrieb der Software der geheimdienstnahen US-Firma Palantir einzustellen.

Data Mining = Rasterahndung

Die Software schaut sich "nur" die allgemein verfügbaren Daten der Menschen an und versucht daraus Muster zu erkennen. Wer war zum Zeitpunkt X wo, wer hat mit wem telefoniert, wer hat ähnliche Ansichten in (a-) sozialen Netzwerken geäußert wie der Verdächtige Y?

Aus der Vielzahl der analysierten Daten lassen sich Persönlichkeits- sowie Bewegungsprofile von Personen erstellen und daraus wieder Schlussfolgerung auf eigentlich private Verhaltensmuster ziehen. Schon vor mehr als 20 Jahren hatte sich das BVerfG mit der Rasterfahndung von Studenten nach den Terroranschlägen vom 11. September beschäftigt und eine Analyse von Daten Unverdächtigen/Unbeteiligten ausgeschlossen. Warum jetzt - ohne äußeren Anlass - dieser erneute Vorstoß? KI machts möglich.

Noch fehlt zumindest in Bayern eine Rechtsgrundlage für solche Software, doch im Koalitionsvertrag wird sie bereits gefordert. Frage: Warum sind die Menschen so blind, solche Parteien wie CSU und Freie Wähler zu wählen?

Mehr dazu bei https://www.jungewelt.de/artikel/469076.big-brother-in-bayern-der-einsatz-solcher-software-ist-gef%C3%A4hrlich.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3yY
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8682-20240214-big-brother-in-bayern.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8682-20240214-big-brother-in-bayern.html
Tags: #DataMining #Rasterahndung #BigBrother #Bayern #PredictivePolicing #FalsePositives #fehlerhaft #Unschuldsvermutung #Verhaltensänderung #Polizei #Geheimdienste #Geodaten #Palantir #Vera #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Persönlichkeitsrecht #Privatsphäre

aktionfsa@diasp.eu

30.12.2023 Data Mining auf US Telefondaten

Wozu können Telefondaten genutzt werden?

Nach 15 Jahren in unserem Verein - wir feiern am 18.1.24 den 15 Gründungsgeburtstag - ist das eine unnötige Frage. Jahrelang haben wir bis zum Verbot durch BVerfG und EuGH gegen die Gesetze zur Vorratsdatenspeicherung (VDS) gekämpft. Die Speicherung allein von Metadaten - wer hat wann, wie oft, wie lange mit wem telefoniert - macht uns alle gläsern. Aus solchen Daten können auch leicht falsche Schlüsse gezogen werden und wir müssen dann als sogenannte False Positives "beweisen". dass wir etwas nicht getan haben. Das führt zu einer Umkehr der Unschuldvermutung, die eigentlich ein Grundpfeiler unseres Rechtsstaats sein sollte.

Nun berichtet Heise.de, dass ein geheimes Programm US-Strafverfolgungsbehörden auf Bundes-, Landes- und Kommunalebene ermöglicht auf die Telefondaten Millionen Unverdächtiger zuzugreifen.

  • Erstens: Wie kann es für normale Polizeibehörden überhaupt ein geheimes Programm geben?
  • Zweitens: Warum bringen die Telefonprovider solche Programme nicht sofort an die Öffentlichkeit, wenn sie dazu angefragt werden?

Denn heraus kam das Vorgehen nur durch die Analyse von durchgesickerten Polizeidokumenten durch das US-Magazin Wired. Man hatte mit der Hilfe des Telekommunikationsunternehmens AT&T eine Analyse von Anrufdetails durchgeführt. Solche Kettenanalysen sollten helfen, Kontaktnetzwerke aufzudecken, die über direkte Verbindungen zu Verdächtigen hinausgehen. Das ist weit mehr als nur die Speicherung von VDS-Daten, das ist Data Mining also die bei uns weitgehend verbotene Rasterfahnung.

So hat auch US-Senator Ron Wyden in einem von Wired veröffentlichten Brief an das Justizministerium "ernsthafte Bedenken hinsichtlich der Rechtmäßigkeit", schreibt Heise.de. Dabei ist das DAS genannte Programm (Data Analytical Services) nicht neu, sondern wurde bereits erstmals von der New York Times im Jahr 2013 öffentlich gemacht. In diesem Programm werden täglich vier Milliarden Einträge gespeichert. Skandalös ist, dass dieses Programm seit Jahren verdeckt finanziert wird und auch Präsident Joe Biden dafür erneut eine finanzielle Unterstützung in Höhe von 6 Millionen US-Dollar zur Verfügung gestellt hat.

Mehr dazu bei https://www.heise.de/news/US-Polizei-hatte-Zugriff-auf-Telefondaten-Millionen-Unverdaechtiger-9539654.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3y8
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8634-20231230-data-mining-auf-us-telefondaten.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8634-20231230-data-mining-auf-us-telefondaten.html
Tags: #DataMining #Rasterfahndung #Telefondaten #VDS #USA #AT&T #FalsePositives #Unschuldvermutung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Datenskandale #Datenverluste #Wired #Biden #NYT #FBI #Polizei #Rechtsstaats #geheim #Cyberwar #Hacking #Transparenz #Informationsfreiheit

aktionfsa@diasp.eu

Meta führt Abogebühren ein

Geld oder Daten!

"Umsonst" war gestern. Der Meta-Konzern von Marc Zuckerberg macht ernst: Entweder schließen die Nutzer ein Abo ab, oder sie können die Plattformen nur mit personalisierter Werbung nutzen.

Fortschritt oder totale Abhänigkeit?

Für das persönliche Bewußtsein der Nutzer könnte es ein helles Lichtlein zur Weihnachtszeit sein, denn nun müssen sie kapieren, das es dort nichts umsonst gibt. Mit einem Abo von z.Zt, geplanten 9,99 bis 12,99 Euro im Monat wird einem gewaltig das Geld aus der Tasche gezogen - und viele werden nach einem Probeabo hoffentlich das rechtzeitige kündigen nicht vergessen ...

Ab dem 1. März 2024 werden für jedes Zusatzkonto dann weitere sechs beziehungsweise acht Euro fällig, schreibt tagesschau.de. Diese neue Regelung gilt bisher nur in der EU und in vier weiteren Ländern.

Warum trifft es die EU?

Falsche Frage, es trifft nicht die EU, sondern die EU hat Zuckerberg hart getroffen und zwar mit den Schrems Urteilen des EuGH (Kampf gegen Facebook geht weiter). Wieder zitieren wir tagesschau.de: Danach verstößt Meta mit seinen Plattformen Instagram und Facebook bereits seit fünf Jahren gegen die Datenschutzgrundverordnung (DSGVO). Laut dieser müssem Nutzerinnen und Nutzer aktiv und informiert und freiwillig einwilligen bevor personenbezogenen Daten von ihnen gesammelt und verarbeitet werden dürfen.

Fünf Jahre hat Meta diese Urteile einfach ausgessen und argumentiert, sie hätten die Einwillung all ihrer Nutzer bereits bei deren Anmeldung erhalten. Nachdem nun die zuständige irische Datenschutzbehörde Meta im Januar mit einem Bußgeld von 390 Millionen Euro belegte, steuert man dort um.

Erfreulich ist, dass nach einer nichtrepräsentativen Umfrage unter NutzerInnen das Abo als viel zu teuer angesehen wird. Es ist also zu hoffen, dass Viele von diesen Diensten Abstand nehmen werden.

Mehr dazu bei https://www.tagesschau.de/wirtschaft/verbraucher/instagram-werbung-zahlungspflichtig-daten-100.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xM
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8614-20231210-meta-fuehrt-abogebuehren-ein.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8614-20231210-meta-fuehrt-abogebuehren-ein.html
Tags: #DSGVO #Datenkraken #Meta #Abo #Gebühren #Klage #Irland #MaxSchrems #EU #aSozialeNetzwerke #Verhaltensänderung #Instagram #Facebook #Meinungsmonopol #Meinungsfreiheit #Verbraucherdatenschutz #Datenskandale #Datensicherheit #Überwachung #DataMining

aktionfsa@diasp.eu

###09.12.2023 Rahmen für KI-Act steht
Grundzüge können noch aufgeweicht werden

Nach 38 Stunden haben sich die Unterhändler von Europaparlament und EU-Staaten nun auf Grundzüge des "AI Act" geeinigt. Würde es in diesem Tempo weitergehen, dann hätte die EU als erste auf der Welt eine Regelung zur künstlichen Intelligenz vorgelegt. Die ebenfalls laufende Diskussion in den USA steckt noch in den Anfängen und ist - wie üblich - viel offener gegenüber den Wünschen der entsprechenden Lobby.

Positiv und negativ

Den vorliegenden Rahmen zu bewerten ist noch nicht endgültig möglich, weil in den weiteren Verhandlungen noch viele erreichte Punkte durch Formulierungen aufgeweicht werden können. Relativ fest stehen bislang folgende Punkte

  • Die Entwickler müssen die Qualität der für die Entwicklung der Algorithmen verwendeten Daten gewährleisten und sicherstellen.
  • Die KI-Entwicklung darf keine Urheberrechte verletzen.
  • Durch Künstliche Intelligenz geschaffene Texte, Bilder und Töne müssen entsprechend markiert werden.
  • Die Regeln für biometrische Gesichtserkennung durch KI, die eigentlich völlig verboten werden sollte, kann zu Zwecken der nationalen Sicherheit eingesetzt werden. Auch wenn sich dies auf "konkrete Bedrohungen" beschränkt wissen, wir, dass solche Regelungen künftig verallgemeintert werden können.
  • Für "risikoreiche" Anwendungen, etwa bei kritischer Infrastruktur, Sicherheitsbehörden und öffentlicher Personalverwaltung sollen "verschärfte Regelungen" gelten.

Vor 3 Wochen berichteten wir über die Vorbehalte von Deutschland und Frankreich gegen die Vorschläge zum KI-Act. Beide Länder hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basis-Technologie an sich. In den sogenannten Basismodelle, wie z.B. Chat-GPT, steckt die Wissensbasis und diese möchten die beiden Länder nicht aus Europa vertreiben. Auch Digital- und Verkehrsminister Volker Wissing appelliert, wie tagesschau.de schreibt, an die EU, international abgestimmt vorzugehen und "keinen Alleingang" zu wagen. So gibt es Befürchtungen, Start-Up-Unternehmen wie Aleph Alpha aus Deutschland und Mistral AI in Frankreich könnten in ihrer Entwicklung behindert werden.

Bei diesen Randgefechten verschwinden oft die für die Privatsphäre des Einzelnen wichtigen Punkte, wie die nun doch erlaubte Nutzung biometrischer Gesichtserkennung oder die Verwendung von KI bei Ermittlungen in Sicherheitsbehörden. Wir werden die Diskussion weiter beobachten ...

Mehr dazu bei https://www.spiegel.de/netzwelt/netzpolitik/ai-act-eu-erzielt-einigung-auf-regeln-fuer-kuenstliche-intelligenz-a-54d0ff03-d275-4c3a-b1b9-c491a0a258cd
und https://www.tagesschau.de/ausland/europa/eu-kuenstliche-intelligenz-regulierung-100.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xL
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8613-20231209-rahmen-fuer-ki-act-steht.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8613-20231209-rahmen-fuer-ki-act-steht.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Rasterfahndung

aktionfsa@diasp.eu

18.11.2023 KI-Act droht zu scheitern

Frankreich und Deutschland gegen strikte Regulierung

Eigentlich war man sich einig, dass die Regulierung künstlicher Intelligenz (KI) durch eine EU Verordnung (KI-Act) noch vor den Europawahlen im nächsten Jahr verabschiedet werden sollte. Nun stecken die Vorgespräche, die sogeannten Trilog Verhandlungen zwischen Rat, Parlament und Komission in einer Sackgasse.

Heise.de schreibt: Hauptstreitpunkt ist die Regulierung von "General Purpose AI Models" – also großen Sprachmodellen wie Llama 2 oder GPT-4, weil sich Frankreich und Deutschland dagegen ausprechen. Das ursprüngliche Ziel war

  • hochgefährliche Anwendungen, wie zum Beispiel Echtzeit-Biometrie, werden komplett verboten,
  • Hochrisiko-Anwendungen, wo die KI in medizinische Bereiche, in die Justiz oder Strafverfolgung eingreifen, werden streng reguliert,
  • andere nur ab und an kontrolliert.

Nun sprechen sich Frankreich und Deutschland dagegen aus die besonders "mächtigen" Sprachmodelle mit Audits durch eine noch zu schaffende EU-Behörde zu überwachen und zu regulieren. Die Befürchtung ist, dass solche Regulierungen innovative Start-ups abwürgen könnten. Dabei ging es bisher eher um die "Großen" - und bei den Großen ist eher zu befürchten, dass die "zu schaffende neue Behörde" von der Macht dieser Großen einfach eingewickelt und die Kontrolle zu einem bloßen Schaulaufen wird.

Wenn es nun bis zur Europawahl nichts wird, sollte man die Zeit nutzen, um die Risiken genauer zu spezifizieren. Dazu gehören neben Datenschutz, rechtlichen, Haftungs- und Copyright Fragen auch die unerträglichen Arbeitsbedingungen der Menschen die die KI trainieren, der immense Stromverbrauch der KI. Fragen der Diskriminierung von Frauen und Menschen, die nicht weiß sind, sind bekannt aber noch längst ist nicht klar, wie sie gelöst werden können.

Mehr dazu bei https://www.heise.de/hintergrund/AI-Act-KI-Gesetz-der-EU-droht-zu-kippen-9531914.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xn
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8590-20231118-ki-act-droht-zu-scheitern.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8590-20231118-ki-act-droht-zu-scheitern.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Rasterfahndung

aktionfsa@diasp.eu

25.10.2023 EU KI-Verordnung noch mangelhaft

Was sollte noch in die KI Verordnung?

Welche Gefahren durch einen leichtsinigen Einsatz von künstlicher Intelligenz (KI) geschehen können, haben wir bereits mehrfach beschrieben. Fatale Folgen fehlerhafter Algorithmen finden sich z.B.in diesem Artikel. Mit einem davon beginnt auch der verlinkte Artikel von netzpolitik.org:

Weil die niederländische Steuerbehörde einen fehlerbehafteten Algorithmus eingesetzt hatte, verlangte sie von mehr als 20.000 Familien zu Unrecht hohe Summen an Kindergeld zurück. Der Fehler stürzte unzählige Familien in Armut, mehr als 1.000 Kinder landeten in Pflegestellen.

Damit so etwas o.ä. nicht passiert wird seit einiger Zeit bei der EU über eine KI Verordnung diskutiert. Nun ist diese Verordnung fast fertig, aber wichtige Stellschrauben fehlen noch immer. Die Forderung von Datenschützern und Netzgemeinde sind u.a.:

  • Gesichtserkennung und andere inakzeptable Technologien verbieten,
  • Predictive Policing, Emotionserkennungs-KI und Systeme zur biometrischen Kategorisierung dürfen nicht gegen Menschen eingesetzt werden,
  • Transparenz: ein KI-Einsatz durch Behörden darf kein Geheimnis sein,
  • kein Blankoschein für Missbrauch unter dem Deckmantel „Nationale Sicherheit”,
  • keine Schlupflöcher in der Definition von „Hochrisiko“-KI,
  • regelmäßige Überprüfung im Betrieb: Systeme zeigen mitunter ihre Risiken erst, wenn sie sich in der konkreten Anwendung befinden.

Mit Stand heute will der Rat der EU ausgerechnet Sicherheits- und Migrationsbehörden von einer Transparenzpflicht befreien und für die „Nationale Sicherheit” wird ein Dechmantel über die geplanten Anwendungen gelegt. Das darf nicht passieren. Deshalb muss das EU Parlament noch einige Arbeit in den bis jetzt vorliegenden Entwurf der KI Verordnung investieren und den Ratsentwurf nicht einfach durchwinken.

Mehr dazu bei https://netzpolitik.org/2023/ki-verordnung-auf-der-zielgeraden-welche-schlupfloecher-die-eu-jetzt-noch-schliessen-muss/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3wW
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8565-20231025-eu-ki-verordnung-noch-mangelhaft.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8565-20231025-eu-ki-verordnung-noch-mangelhaft.html
Tags: #KIVerordnung #EURat #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Smartphone #Handy #Überwachung #DataMining #Rasterfahndung #Sozialbetrug

aktionfsa@diasp.eu

01.08.2023 Gibt die EU Kommission klein bei?

Zugriff auf unsere biometrischen Daten durch die US-Polizei?

Wenn sich die EU, allen voran der EuGH so kleinlich haben und den USA ständig verbieten wollen auf die Daten der EU Bürger zuzugreifen - und zwar egal ob das Abkommen dazu Safe Harbor oder Privacy Shield heißt - dann vereinbaren die USA die Weitergabe der Daten einfach mit jedem Staat in der EU einzeln.

Wie netzpoliti.org schreibt, wollen US-Behörden Fingerabdrücke und Gesichtsbilder in insgesamt 40 Staaten abfragen, die meisten davon in Europa. "Um einem Flickenteppich zu vermeiden" will sich nun die EU Kommission doch zu dem Deal hinreißen lassen.

Damit ihre Bürger:innen zu geschäftlichen oder touristischen Zwecken für maximal drei Monate ohne Visum in die USA einreisen dürfen - so sieht es das "Visa Waiver Program" (VWP) der US-Regierung vor - müssen die Polizeien im Rahmen eines „Enhanced Border Security Partnership“ (EBSP) Zugang zu ihren Biometrie-Datenbanken für Fingerabdrücke und biometrische Fotos gewähren.

Selbst netzpolitik.org stellt erstaunt fest: "Ein solcher Direktzugriff aus dem Ausland ist selbst unter befreundeten Geheimdiensten unüblich." Damit würden die USA nach mehr als 10-jährigem Bemühen letztendlich doch ihren Willen durchsetzen.

Außerdem würde das Verfahren den 1997 geschlossenen Vertrag von Amsterdam zur EU-Visapolitik verletzen. Danach müssen alle EU-Bürger, egal aus welchem Staat sie kommen, gleich behandelt werden. Da Bürgern aus Bulgarien, Rumänien und Zypern aber die Teilnahme am visafreien Reisen in die USA weiterhin verwehrt sein soll, werden diese drei Staaten benachteiligt.

Zu diesen rechtlichen Verletzungen kommt noch der schale Beigeschmack, dass diie „Enhanced Border Security Partnership“ nicht auf Gegenseitigkeit beruht, denn der direkte Zugriff deutscher Behörden auf die entsprechenden Daten von US Bürgern soll erst 2027 in die Diskussion einbezogen werden. Flüchtlingsorganisationen befürchten auch, dass die Abfragen der sensiblen Daten für Asylverfahren genutzt werden können.

Formal muss die EU Kommission erst einmal einen Auftrag für Verhandlungen von den EU Staaten zu diesem Thema bekommen, doch der Druck dazu wird von den USA aufgebaut.

Mehr dazu bei https://netzpolitik.org/2023/alleingang-in-bruessel-eu-kommission-prueft-zugriff-auf-biometriedaten-durch-us-polizei/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3vr
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8478-20230801-gibt-die-eu-kommission-klein-bei.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8478-20230801-gibt-die-eu-kommission-klein-bei.html
Tags: #USA #EU #Polizei #Geheimdienste #Biometrie #Fingerabdruck #IrisScan #Visa #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Anonymisierung #Fingerabdruck #ElektronischerPersonalausweis #ElektronischerPass #EnhancedBorderSecurityPartnership #EBSP #DataMining #Asylantrag #eBorder #VisaWaiverProgram #VWP

aktionfsa@diasp.eu

14.07.2023 Fatale Folgen fehlerhafter Algorithmen

Krasses Scheitern von "künstlicher Intelligenz"

Kurz vor dem Abschluss der EU-Verordnung zum Umgang mit Künstlicher Intelligenz vor 3 Wochen im Plenum des EU-Parlaments wurden auch eine Reihe von Beispielen bekant, in denen der Einsatz von Algorithmen zur "Steuerung des Gemeinwesens" fatale Folgen für die Betroffenen entwickelt hat.

Bei Heise.de gibt es die ausführlichen Geschichten dazu. In der Kurzfassung:

  • Eine holländische Gemeinde möchte zur Argumentation für eine Umgehungsstraße analysieren, welchen reinen Durchgangsverkehr es dort gibt. Das (ungewollte) Ergebnis sind die Smartphones - und damit Menschen - die im Ort das Zentrum einer religösen Minderheit in den Niederlanden besuchen.
  • Ein anderer Algorithmus soll die Datensätze aller Bezieher von Sozialzuschüssen systematisch überprüfen. Mehr als 10.000 junge Elternpaare werden des Sozialbetrugs bezichtigt, die Zuschüsse gestrichen und Rückzahlungen gefordert. Die Betroffenen standen vor großen finanziellen Problemen. Trotzdem wurde das Programm fortgeführt bis sich herausstellte, dass der Algorithmus den Faktor der "Doppelstaatsbürgerschaft" viel zu hoch bewertet hatte. Die weitaus meisten Fälle stellten sich als falsche Treffer (False Positives) heraus.
  • In Italien wollte man den notorischen Lehrermangel bekämpfen, in dem man dem bisherigen persönlichen Stellenbesetzungsverfahren einen Algorithmus vorschaltete. Die Nebenwirkungen waren verheerend, denn vielen erfahrenen Pädagogen wurden nur Aushilfslehrerstellen angeboten, oder sie wurden sogar plötzlich arbeitslos, weil der Algrithmus abgelehnte Bewerber automatsich als schlecht(er) qualifiziert einstufte.

Verteidiger der Digitalisierung werden argumentieren, dass in allen 3 Fällen die Algorithmen schlecht programmiert waren oder in einem "unpassenden" Kontext angewendet wurden. Also waren in allen Fällen auch Menschen die Schuldigen für die aufgetretenen Fehler.

Das mag stimmen, aber solange uns die "alleinseeligmachende Super-KI" nicht regiert, werden (glücklicherweise) Menschen die Planung und den Einsatz vornehmen. Wie heise.de feststellt, müssen diese mindestens besser ausgebildet werden: "Um fehlerhafte Algorithmen zu identifizieren, braucht es aber spezielle Skills und die sind zurzeit nicht einmal bei Datenschutzbehörden vorhanden."

Es reicht nicht, ein kleines Problem zu analysieren und dafür eine Lösung zu programmieren. In unserer Gesellschaft hängt alles von vielem ab. Schauen wir mal, welche Probleme die KI-Verordnung löst und welche sie vergrößert ...

Mehr dazu bei https://www.heise.de/news/Kuenstliche-Intelligenz-Drei-Beispiele-fuer-das-Scheitern-von-Algorithmen-9205911.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3v7
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8459-20230714-fatale-folgen-fehlerhafter-algorithmen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8459-20230714-fatale-folgen-fehlerhafter-algorithmen.html
Tags: #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Smartphone #Handy #Überwachung #DataMining #Rasterfahndung #Lehrerauswahl #Bewerber #Sozialbetrug
Erstellt: 2023-07-14 07:28:31