#datamining

aktionfsa@diasp.eu

18.04.2024 KI in der Kriegsführung

KI fehlt in der Genfer Konvention

Während man bei der ersten KI Verordnung der Welt die möglichen Verzerrungen und Diskriminierungen bei ihrem Einsatz in Wirtschaft und im Geschäftsleben und möglichen Arbeitsplatzverluste mit Aufmerksamkeit betrachtet hat, wird der Einsatz von KI im militärischen Bereich dort überhaupt nicht erwähnt.

Cathy Mulligan weist jedoch bei Netzpolitik.org in einem Gastbeitrag auf folgendes hin: Automatisierte Entscheidungsfindung oder automatisierte Waffen automatisieren nicht nur den Krieg an sich, sondern sie können auch die Rollen der Bürger:innen innerhalb der Genfer Konventionen verändern und verschieben.

"Kriegsführung mit der Geschwindigkeit von Computern, nicht mit der Geschwindigkeit von Menschen"

... sagt Eric Schmidt, ehemaliger CEO von Google und nebenbei als Vorsitzender des Advisory Committee for the Department of Defense und der National Security Commission on Artificial Intelligence tätig. Ihm ist es mit Blick auf das (militärische) Verhältnis zwischen den Inkas und den spanischen Konquistadores wichtig, einen vergleichbaren "Qualitätsunterschied" herzustellen, so dass die USA zu einer vollautomatischen Kriegsführung fähig sind.

SDI nach 40 Jahren realistisch

US Präsident Reagans Star Wars Pläne aus den 80-iger Jahren sind heute möglich, denn KI kann die Flugbahnen ballistischer Raketen im Voraus berechnen, um sie dann präventiv abzufangen oder umzulenken. In den Projekten Maven der USA und gemeinsamen Projekten wie AUKUS von Australien, den USA und Großbritannien wird seit einigen Jahren aktiv an der Entwicklung automatisierter robotischer Waffensysteme gearbeitet. Natürlich wird gleichzeitig an neuen Waffen, wie Hyperschallraketen gearbeitet, die wiederum diese Systeme austricksen sollen.

Dieser Wettlauf ist nicht neu, jedoch ergibt sich eine neue Betrachtung bei einem Blick in die Genfer Konventionen und ihre Zusatzprotokolle, die den Kern des humanitären Völkerrechts bilden: "… eine Person, die sich direkt an den Feindseligkeiten beteiligt, wird als rechtmäßiges Ziel betrachtet." (Dabei wollen wir nicht die Leo-II-Diskussion vom vergangenen Jahr oder die Zielkoordinaten für Taurus aufleben lassen ...)

Entscheidender mit Blick auf die KI wird dann sein, wo liegen die (verteilten) KI Datenbanken und wer betreut diese. Nach obiger Defintion sind eventuell alle diese "Zivilisten" ein rechtmäßiges Ziel für den Gegner. Oft kommt es in kriegerischen Auseinandersetzungen neuerdings auch zu Cyberangriffen. Dazu werden regelmäßig auch Computer von Zivilisten genutzt, die diese entweder für über KI koordinierte Distributed-Denial-of-Service-Angriffe (DDoS) zur Verfügung gestellt haben oder diese wurden durch Computerviren für diese Aktivitäten gehackt und genutzt.

Allein das Herumtragen eines Smartphones kann bereits durch die Bewegungsprofile "militärische Informationen" über Staus oder Fluchtbewegungen liefern und damit zu einem (eventuell bedeutenden) Dateninput für den Kriegsverlauf werden.

Human-in-the-Loop

Zurück zu dem Satz von Eric Schmidt, dieser macht den Unterschied zwischen KI-Kriegsführung und der Drohung mit Atombomben deutlich. Während ein interkontinentaler Atomraketenangriff noch eine Reaktionszeit von 20 Minuten lässt, kann die KI in Sekundenbruchteilen "entscheiden". Deshalb müssen, wie Cathy Muligan sagt, geschulte Entscheider an bestimmten Stellen in die KI-Prozesse einbezogen [werden], um sicherzustellen, dass ein Mensch die Entscheidungen trifft und nicht die Algorithmen selbst. Auf diese Weise soll sichergestellt werden, dass menschliche Ethik und Moral in die Entscheidungsprozesse einfließen und somit die Einhaltung des humanitären Völkerrechts gewährleistet ist.

Wie auch Frau Mulligan, sehen wir darin jedoch keine Lösung, denn diese geschulten Entscheider werden je nach ihrer Entscheidung und nach Ausgang des Konflikts von der einen oder andern Seite als Kriegsverbrecher an die Wand gestellt. Kein Mensch kann den auf ihn einstürmenden Wust an Daten im richtigen Augenblick sinnvoll bewerten. Eine Lösung kann nur in einer Rückkehr zu nachprüfbaren Abrüstungsvereinbarungen im Rahmen der UNO liegen und nie in Kriegen oder angeblich überlegener Kriegstechnik.

Das wollte schon Tucholsky mit seinen Worten "Soldaten sind Mörder" ausdrücken - KI-Unterstützung macht das Morden nicht besser - und damit bleibt uns allen nur eine Konsequenz bleibt: Nie wieder Krieg!

Mehr dazu bei https://netzpolitik.org/2024/kuenstliche-intelligenz-automatisierte-kriegsfuehrung-und-die-genfer-konvention/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3A8
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8749-20240418-ki-in-der-kriegsfuehrung.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8749-20240418-ki-in-der-kriegsfuehrung.html
Tags: #Google #KIAct #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Gesichtserkennung #Fernerkennung #Anonymisierung #FalsePositives #GenferKonvention #UNO #Diskiminierung #Überwachung #DataMining #Atomwaffen #Militär #Bundeswehr #Aufrüstung #Waffenexporte #Drohnen #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln

aktionfsa@diasp.eu

15.03.2024 Erste KI Verordnung der Welt

Regelungen zur Einschränkung von Überwachung völlig unzureichend

Die EU hat es nun doch noch geschafft, die KI Verordnung zu beschließen. Bis zuletzt stand ein beschlussfähiges Ergebnis auf der Kippe, denn wie wir berichtet hatten, hatten Deutschland und Frankreich plötzlich Bedenken, die "europäische KI Entwicklung einzuschränken". (KI-Act droht zu scheitern)

Wie bei der EU üblich, sollen wir nun mit einem Kompromiss leben, der vieles anspricht, aber nur wenig regelt. Schauen wir uns die Ergebnisse genauer an.

  • Verboten wird der Einsatz von KI
  • bei der Gefühlserkennung,
  • für Social Credit Systeme.
  • Eine Kennzeichnung wird vorgeschrieben für KI Anwendungen
  • die Texte oder
  • Bilder generieren.
  • Für sogenannte "Hochrisikotechnologien" werden "Auflagen" gemacht, das sind
  • die Gesichtserkennung,
  • das autonome Fahren,
  • medizinische Diagnosen und
  • das Personal-Recruiting.

Der Fehler im System

... springt uns direkt ins Gesicht. Warum werden ausgerechnet für "Hochrisikotechnologien" Ausnahmen gemacht. Diese sollte am besten ganz verboten oder zumindest so stark reguliert werden, dass niemand durch sie Schaden erleiden kann - beim autonomen Fahren ist das Lebensgefahr, wie schon einige Vorfälle gezeigt haben. Gerade die Gesichtserkennung war ein grundsätzlicher Diskussionspunkt zwischen Parlament und Kommission und die Vertreter des Staates haben sich wieder einmal durchgesetzt. Biometrische Gesichtserkennung soll in "Gefahrenlagen" unter richterlicher Aufsicht möglich sein.

Welche regulatorische "Steuerung" dann künftig verhindern soll, dass KI-Algorithmen unsere Zwangs-ePA (elektronische Patientenakte) aufhübscht steht völlig in den Sternen. Wie man regulieren will, dass nicht eine KI, sondern ein Mensch künftig die Bewerbungsunterlagen von nicht-weißen Männern und Frauen gleich aussortiert, wird auch noch interessant. Fazit bleibt, dass dieser erste Aufschlag der EU eigentlich kein Problem löst, das wir uns mit dem Einsatz von KI geschaffen haben.

Wie wenig praxistauglich die Verordnung ist, zeigt ja schon der "Skandal" um das Foto der britischen Prinzessin Kate, die ihr Foto wohl mit den (wenigen und harmlosen) KI-Tools von Adobe Photoshop bearbeiten ließ - und es nicht so gekennzeichnet hat. Dazu müsste ja jedes Programm sagen, dass es KI-Software enthält und das würde wieder erfordern, dass der Begriff KI erst einmal eindeutig definiert wird.

Statt die Fehler der Verordnung im Kleinen zu suchen, sind die grundrechtlichen Kritiken ernst zu nehmen. Dazu zitieren wir Marius Tudor, ehemaliger Berater des Europäischen Parlaments, der feststellt: "Dieses Gesetz schränkt den Zugang zum Arbeitsplatz und/oder zu privaten/öffentlichen Räumen durch die Verwendung der Fernidentifizierung von Bürgern ein. Ein Gesetz, das nicht in die europäische Gesetzgebung gehört, zumindest nicht in dieser Form, und das dennoch umgesetzt wird und mehr Schaden als Nutzen anrichtet."

Seine Kritik an der Verordnung über künstliche Intelligenz sieht einen Verstoß gegen Artikel 16 des Vertrags über die Arbeitsweise der Europäischen Union,

  • in dem das Recht auf Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten verankert ist,
  • sowie gegen das Grundrecht auf Schutz personenbezogener Daten, das insbesondere durch die Verordnungen (EU) 2016/679 und (EU) 2018/1725
  • sowie die Richtlinien 2016/680 und 2002/58/EG geschützt wird.
  • Dieses Gesetz verstößt gegen die Richtlinie 2000/43/EG des Rates zur Anwendung des Gleichbehandlungsgrundsatzes ohne Unterschied der Rasse oder der ethnischen Herkunft und
  • gegen die Richtlinie 2000/78/EG des Rates zur Festlegung eines allgemeinen Rahmens für die Verwirklichung der Gleichbehandlung in Beschäftigung und Beruf.
  • Ferner verstößt das Gesetz gegen den Vertrag über die Arbeitsweise der Europäischen Union, der Diskriminierungen aus Gründen der Staatsangehörigkeit, der ethnischen Herkunft, des Geschlechts, des Alters, der sozialen Stellung oder der körperlichen Merkmale verbietet,
    • sowie gegen die Grundprinzipien der Freiheit und Gleichheit, auf denen die EU beruht.

Nun muss die jetzt beschlossene Verordnung erst einmal in den Mitgliedsstaaten ankommen und dabei ist noch mit weiteren Verwässerungen zu rechnen. Wir werden das Thema weiter verfolgen ...

Mehr dazu bei https://www.ardmediathek.de/video/wirtschaft-vor-acht/wirtschaft-vor-acht/das-erste/Y3JpZDovL2Rhc2Vyc3RlLmRlL3dpcnRzY2hhZnQgdm9yIGFjaHQvMjAyNC0wMy0xNF8xOS01NS1NRVo
und https://uncutnews.ch/das-europaeische-parlament-fuehrt-die-totale-kontrolle-der-buerger-durch-die-hintertuer-ein-biometrische-diktatur-nach-chinesischem-vorbild/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3zw
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8714-20240315-erste-ki-verordnung-der-welt.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8714-20240315-erste-ki-verordnung-der-welt.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Gesichtserkennung #Fernerkennung #autonomeKfz #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Bewerbungen #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Diagnosen

aktionfsa@diasp.eu

18.02.2024 Verlaufsprotokolle des Polizeikessels jetzt öffentlich

"... nicht unkontrolliert ablaufen lassen"

Eine Demonstration für Versammlungsfreiheit am 3. Juni 2023 zum sogenannten „Tag X” in Leipzig führte dazu, dass mehr als 1300 Menschen im Juni 2023 auf einer Wiese im Süden Leipzigs in einem Polizeikessel elf Stunden ausharren mussten. Die Betroffenen wissen nun wie es um die Versammlungsfreiheit in Sachsen bestellt ist.

"Frag den Staat" hat nun den detaillierten Verlaufsbericht des Einsatzes sowie mehrere im Nachgang erstellte Protokolle durch eine Anfrage nach dem neuen Sächsischen Transparenzgesetz aus dem geheimen Dokumentenknast "Verschlusssache – nur für den Dienstgebrauch" (VS-NfD) befreit.

Aus diesen Dokumenten ergibt sich, dass bereits mehr als eine halbe Stunde vor Beginn des Polizeikessels der zuständige Polizeiführer erstmals anordnete, dass die Teilnehmer der Veranstaltung „nicht unkontrolliert ablaufen dürfen“. Zu diesem Zeitpunkt gab es einzelne vermummte Personen, jedoch keine gewalttätige Aktionen oder deren Vorbereitung, wie etwa Steine sammeln.

Kurz darauf wird von der Polizeiführung präzisiert bei jeder Person eine Identitätsfeststellung durchzuführen und "jeden unkontrollierten Abgang" von der Demo zu verhindern. Im Einsatzprotokoll geht die Polizei von 500 Personen aus, die sie festgesetzt hat, andere Protokolle notieren die Zahl 300 bis 400. In dem Polizeikessel befinden sich 1323 Menschen – darunter mehr als hundert Jugendliche und zwei Kinder.

Pauschal allen Eingekesselten die Beteiligung an Straftaten zu unterstellen und gegen sie zu ermitteln, hält der Polizeirechtler Clemens Arzt schon an den folgenden Tagen gegenüber dem MDR für rechtlich unzulässig: "Eine solche Maßnahme gegen Hunderte von Menschen für eine so lange Dauer, die scheint mir rechtlich nicht zulässig gewesen zu sein." Er forderte die Betroffenen dazu auf dagegen vorzugehen. Dies insbesondere, weil alle Eingeschlossenen im Polizeikessel nach Rücksprache mit einem Staatsanwalt als Tatverdächtige von Straftaten geführt und erkennungsdienstlich behandelt werden sollten.

Um 22:01 Uhr notiert die Polizei 100 Personen abgearbeitet zu haben, um 0 Uhr sind es 250, um 1:45 Uhr werden noch 300 Personen im Kessel vermutet. Auch nach einigen Tagen spricht die Polizei "nur" von 1031 Identitätsfeststellungen, inzwischen liegt die offizielle Zahl bei weit über 1300 Eingekesselten. Warum die Polizei mit ihren Personenschätzungen so daneben lag - wir kennen das ja auch oft von den Zählungen bei Demonstrationen - erstaunt, denn der Polizeibericht bestätigt, dass bereits um 17:06 Uhr Polizisten in Zivil inmitten der Versammlung im Einsatz waren.

Genauso unerklärlich ist, dass in den Protokollen bereits um 18 Uhr die Anfrage der Polizei nach Wasser und Toilettenmöglichkeiten für 800 Personen vermerkt wird, wo sie nach ihren Eintragungen von 300 Personen ausging. Um 22:57 Uhr wurde wegen der nächtlichen Temperaturen der Bedarf an Rettungsdecken wegen drohender Unterkühlung notiert. Diese trafen erst um fünf Uhr morgens vor Ort ein und wurden "nicht mehr benötigt“.

Frag den Staat schließt seinen Bericht mit der Feststellung: Gegen alle 1321 strafmündigen Personen, die in jener Nacht im Leipziger Kessel ausharren mussten, laufen seitdem Strafverfahren. Sie alle sind des Landfriedensbruchs in einem besonders schweren Fall beschuldigt. Lediglich die beiden Kinder, die inmitten der Gruppe von der Polizei festgehalten wurden, sind davon ausgenommen. Zudem gibt es Hinweise, wonach diese 1321 Personen zwischenzeitlich durch den Sächsischen Verfassungsschutz im gemeinsamen Informationsportal der Nachrichtendienste (NADIS) erfasst worden sein sollen – zugeordnet dem Phänomenbereich Linksextremismus.

Der VS gibt dazu natürlich keine Auskunft ...
Frag den Staat hält das nicht für "natürlich" und hat deshalb einen Antrag auf Erlass einer einstweiligen Anordnung gegen Sachsens Verfassungsschutz eingereicht.

Mehr dazu bei https://fragdenstaat.de/blog/2024/02/12/chaos-und-widerspruche-zum-leipziger-polizeikessel/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3z3
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8686-20240218-verlaufsprotokolle-des-polizeikessels-jetzt-oeffentlich.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8686-20240218-verlaufsprotokolle-des-polizeikessels-jetzt-oeffentlich.html
Tags: #Leipzig #Polizeikessel #Bodycam #Polizeieinsatz #Menschenwürde #anlasslos #Verhaltensänderung #Öffentlichkeit #Lauschangriff #Überwachung #DataMining #Videoüberwachung #Polizeigewalt #Verfassungsschutz #VS

aktionfsa@diasp.eu

14.02.2024 Big Brother in Bayern

Verhaltensvorhersagen möglich ...

... aber beliebig fehlerhaft. Die Folgen von "Predictive Policing" sollte man sich stets vor Augen halten, bevor man sie auf die Menschen los lässt. Es kommt zu beliebig vielen "False Positives", also falsch Verdächtigten, die dann unter großen Schwierigkeiten ihre Unschuld beweisen müssen. Wie schwer es ist zu beweisen, dass man irgend etwas nicht getan hat, das wissen die Betroffenen nur zu gut.

Bereits in Hessen und NRW wird eine Software eingesetzt, die nun auch die Polizei in Bayern zu nutzen plant. Es handelt sich um die Analysesoftware "Vera", die wiederum auf Palantirs "Gotham" beruht. Die Junge Welt berichtet nun, dass der bayerische Landesdatenschutzbeauftragte, Thomas Petri, vom Landeskriminalamt fordert, den Testbetrieb der Software der geheimdienstnahen US-Firma Palantir einzustellen.

Data Mining = Rasterahndung

Die Software schaut sich "nur" die allgemein verfügbaren Daten der Menschen an und versucht daraus Muster zu erkennen. Wer war zum Zeitpunkt X wo, wer hat mit wem telefoniert, wer hat ähnliche Ansichten in (a-) sozialen Netzwerken geäußert wie der Verdächtige Y?

Aus der Vielzahl der analysierten Daten lassen sich Persönlichkeits- sowie Bewegungsprofile von Personen erstellen und daraus wieder Schlussfolgerung auf eigentlich private Verhaltensmuster ziehen. Schon vor mehr als 20 Jahren hatte sich das BVerfG mit der Rasterfahndung von Studenten nach den Terroranschlägen vom 11. September beschäftigt und eine Analyse von Daten Unverdächtigen/Unbeteiligten ausgeschlossen. Warum jetzt - ohne äußeren Anlass - dieser erneute Vorstoß? KI machts möglich.

Noch fehlt zumindest in Bayern eine Rechtsgrundlage für solche Software, doch im Koalitionsvertrag wird sie bereits gefordert. Frage: Warum sind die Menschen so blind, solche Parteien wie CSU und Freie Wähler zu wählen?

Mehr dazu bei https://www.jungewelt.de/artikel/469076.big-brother-in-bayern-der-einsatz-solcher-software-ist-gef%C3%A4hrlich.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3yY
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8682-20240214-big-brother-in-bayern.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8682-20240214-big-brother-in-bayern.html
Tags: #DataMining #Rasterahndung #BigBrother #Bayern #PredictivePolicing #FalsePositives #fehlerhaft #Unschuldsvermutung #Verhaltensänderung #Polizei #Geheimdienste #Geodaten #Palantir #Vera #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Persönlichkeitsrecht #Privatsphäre

aktionfsa@diasp.eu

30.12.2023 Data Mining auf US Telefondaten

Wozu können Telefondaten genutzt werden?

Nach 15 Jahren in unserem Verein - wir feiern am 18.1.24 den 15 Gründungsgeburtstag - ist das eine unnötige Frage. Jahrelang haben wir bis zum Verbot durch BVerfG und EuGH gegen die Gesetze zur Vorratsdatenspeicherung (VDS) gekämpft. Die Speicherung allein von Metadaten - wer hat wann, wie oft, wie lange mit wem telefoniert - macht uns alle gläsern. Aus solchen Daten können auch leicht falsche Schlüsse gezogen werden und wir müssen dann als sogenannte False Positives "beweisen". dass wir etwas nicht getan haben. Das führt zu einer Umkehr der Unschuldvermutung, die eigentlich ein Grundpfeiler unseres Rechtsstaats sein sollte.

Nun berichtet Heise.de, dass ein geheimes Programm US-Strafverfolgungsbehörden auf Bundes-, Landes- und Kommunalebene ermöglicht auf die Telefondaten Millionen Unverdächtiger zuzugreifen.

  • Erstens: Wie kann es für normale Polizeibehörden überhaupt ein geheimes Programm geben?
  • Zweitens: Warum bringen die Telefonprovider solche Programme nicht sofort an die Öffentlichkeit, wenn sie dazu angefragt werden?

Denn heraus kam das Vorgehen nur durch die Analyse von durchgesickerten Polizeidokumenten durch das US-Magazin Wired. Man hatte mit der Hilfe des Telekommunikationsunternehmens AT&T eine Analyse von Anrufdetails durchgeführt. Solche Kettenanalysen sollten helfen, Kontaktnetzwerke aufzudecken, die über direkte Verbindungen zu Verdächtigen hinausgehen. Das ist weit mehr als nur die Speicherung von VDS-Daten, das ist Data Mining also die bei uns weitgehend verbotene Rasterfahnung.

So hat auch US-Senator Ron Wyden in einem von Wired veröffentlichten Brief an das Justizministerium "ernsthafte Bedenken hinsichtlich der Rechtmäßigkeit", schreibt Heise.de. Dabei ist das DAS genannte Programm (Data Analytical Services) nicht neu, sondern wurde bereits erstmals von der New York Times im Jahr 2013 öffentlich gemacht. In diesem Programm werden täglich vier Milliarden Einträge gespeichert. Skandalös ist, dass dieses Programm seit Jahren verdeckt finanziert wird und auch Präsident Joe Biden dafür erneut eine finanzielle Unterstützung in Höhe von 6 Millionen US-Dollar zur Verfügung gestellt hat.

Mehr dazu bei https://www.heise.de/news/US-Polizei-hatte-Zugriff-auf-Telefondaten-Millionen-Unverdaechtiger-9539654.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3y8
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8634-20231230-data-mining-auf-us-telefondaten.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8634-20231230-data-mining-auf-us-telefondaten.html
Tags: #DataMining #Rasterfahndung #Telefondaten #VDS #USA #AT&T #FalsePositives #Unschuldvermutung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Datenskandale #Datenverluste #Wired #Biden #NYT #FBI #Polizei #Rechtsstaats #geheim #Cyberwar #Hacking #Transparenz #Informationsfreiheit

aktionfsa@diasp.eu

Meta führt Abogebühren ein

Geld oder Daten!

"Umsonst" war gestern. Der Meta-Konzern von Marc Zuckerberg macht ernst: Entweder schließen die Nutzer ein Abo ab, oder sie können die Plattformen nur mit personalisierter Werbung nutzen.

Fortschritt oder totale Abhänigkeit?

Für das persönliche Bewußtsein der Nutzer könnte es ein helles Lichtlein zur Weihnachtszeit sein, denn nun müssen sie kapieren, das es dort nichts umsonst gibt. Mit einem Abo von z.Zt, geplanten 9,99 bis 12,99 Euro im Monat wird einem gewaltig das Geld aus der Tasche gezogen - und viele werden nach einem Probeabo hoffentlich das rechtzeitige kündigen nicht vergessen ...

Ab dem 1. März 2024 werden für jedes Zusatzkonto dann weitere sechs beziehungsweise acht Euro fällig, schreibt tagesschau.de. Diese neue Regelung gilt bisher nur in der EU und in vier weiteren Ländern.

Warum trifft es die EU?

Falsche Frage, es trifft nicht die EU, sondern die EU hat Zuckerberg hart getroffen und zwar mit den Schrems Urteilen des EuGH (Kampf gegen Facebook geht weiter). Wieder zitieren wir tagesschau.de: Danach verstößt Meta mit seinen Plattformen Instagram und Facebook bereits seit fünf Jahren gegen die Datenschutzgrundverordnung (DSGVO). Laut dieser müssem Nutzerinnen und Nutzer aktiv und informiert und freiwillig einwilligen bevor personenbezogenen Daten von ihnen gesammelt und verarbeitet werden dürfen.

Fünf Jahre hat Meta diese Urteile einfach ausgessen und argumentiert, sie hätten die Einwillung all ihrer Nutzer bereits bei deren Anmeldung erhalten. Nachdem nun die zuständige irische Datenschutzbehörde Meta im Januar mit einem Bußgeld von 390 Millionen Euro belegte, steuert man dort um.

Erfreulich ist, dass nach einer nichtrepräsentativen Umfrage unter NutzerInnen das Abo als viel zu teuer angesehen wird. Es ist also zu hoffen, dass Viele von diesen Diensten Abstand nehmen werden.

Mehr dazu bei https://www.tagesschau.de/wirtschaft/verbraucher/instagram-werbung-zahlungspflichtig-daten-100.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xM
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8614-20231210-meta-fuehrt-abogebuehren-ein.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8614-20231210-meta-fuehrt-abogebuehren-ein.html
Tags: #DSGVO #Datenkraken #Meta #Abo #Gebühren #Klage #Irland #MaxSchrems #EU #aSozialeNetzwerke #Verhaltensänderung #Instagram #Facebook #Meinungsmonopol #Meinungsfreiheit #Verbraucherdatenschutz #Datenskandale #Datensicherheit #Überwachung #DataMining

aktionfsa@diasp.eu

###09.12.2023 Rahmen für KI-Act steht
Grundzüge können noch aufgeweicht werden

Nach 38 Stunden haben sich die Unterhändler von Europaparlament und EU-Staaten nun auf Grundzüge des "AI Act" geeinigt. Würde es in diesem Tempo weitergehen, dann hätte die EU als erste auf der Welt eine Regelung zur künstlichen Intelligenz vorgelegt. Die ebenfalls laufende Diskussion in den USA steckt noch in den Anfängen und ist - wie üblich - viel offener gegenüber den Wünschen der entsprechenden Lobby.

Positiv und negativ

Den vorliegenden Rahmen zu bewerten ist noch nicht endgültig möglich, weil in den weiteren Verhandlungen noch viele erreichte Punkte durch Formulierungen aufgeweicht werden können. Relativ fest stehen bislang folgende Punkte

  • Die Entwickler müssen die Qualität der für die Entwicklung der Algorithmen verwendeten Daten gewährleisten und sicherstellen.
  • Die KI-Entwicklung darf keine Urheberrechte verletzen.
  • Durch Künstliche Intelligenz geschaffene Texte, Bilder und Töne müssen entsprechend markiert werden.
  • Die Regeln für biometrische Gesichtserkennung durch KI, die eigentlich völlig verboten werden sollte, kann zu Zwecken der nationalen Sicherheit eingesetzt werden. Auch wenn sich dies auf "konkrete Bedrohungen" beschränkt wissen, wir, dass solche Regelungen künftig verallgemeintert werden können.
  • Für "risikoreiche" Anwendungen, etwa bei kritischer Infrastruktur, Sicherheitsbehörden und öffentlicher Personalverwaltung sollen "verschärfte Regelungen" gelten.

Vor 3 Wochen berichteten wir über die Vorbehalte von Deutschland und Frankreich gegen die Vorschläge zum KI-Act. Beide Länder hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basis-Technologie an sich. In den sogenannten Basismodelle, wie z.B. Chat-GPT, steckt die Wissensbasis und diese möchten die beiden Länder nicht aus Europa vertreiben. Auch Digital- und Verkehrsminister Volker Wissing appelliert, wie tagesschau.de schreibt, an die EU, international abgestimmt vorzugehen und "keinen Alleingang" zu wagen. So gibt es Befürchtungen, Start-Up-Unternehmen wie Aleph Alpha aus Deutschland und Mistral AI in Frankreich könnten in ihrer Entwicklung behindert werden.

Bei diesen Randgefechten verschwinden oft die für die Privatsphäre des Einzelnen wichtigen Punkte, wie die nun doch erlaubte Nutzung biometrischer Gesichtserkennung oder die Verwendung von KI bei Ermittlungen in Sicherheitsbehörden. Wir werden die Diskussion weiter beobachten ...

Mehr dazu bei https://www.spiegel.de/netzwelt/netzpolitik/ai-act-eu-erzielt-einigung-auf-regeln-fuer-kuenstliche-intelligenz-a-54d0ff03-d275-4c3a-b1b9-c491a0a258cd
und https://www.tagesschau.de/ausland/europa/eu-kuenstliche-intelligenz-regulierung-100.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xL
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8613-20231209-rahmen-fuer-ki-act-steht.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8613-20231209-rahmen-fuer-ki-act-steht.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Rasterfahndung

aktionfsa@diasp.eu

18.11.2023 KI-Act droht zu scheitern

Frankreich und Deutschland gegen strikte Regulierung

Eigentlich war man sich einig, dass die Regulierung künstlicher Intelligenz (KI) durch eine EU Verordnung (KI-Act) noch vor den Europawahlen im nächsten Jahr verabschiedet werden sollte. Nun stecken die Vorgespräche, die sogeannten Trilog Verhandlungen zwischen Rat, Parlament und Komission in einer Sackgasse.

Heise.de schreibt: Hauptstreitpunkt ist die Regulierung von "General Purpose AI Models" – also großen Sprachmodellen wie Llama 2 oder GPT-4, weil sich Frankreich und Deutschland dagegen ausprechen. Das ursprüngliche Ziel war

  • hochgefährliche Anwendungen, wie zum Beispiel Echtzeit-Biometrie, werden komplett verboten,
  • Hochrisiko-Anwendungen, wo die KI in medizinische Bereiche, in die Justiz oder Strafverfolgung eingreifen, werden streng reguliert,
  • andere nur ab und an kontrolliert.

Nun sprechen sich Frankreich und Deutschland dagegen aus die besonders "mächtigen" Sprachmodelle mit Audits durch eine noch zu schaffende EU-Behörde zu überwachen und zu regulieren. Die Befürchtung ist, dass solche Regulierungen innovative Start-ups abwürgen könnten. Dabei ging es bisher eher um die "Großen" - und bei den Großen ist eher zu befürchten, dass die "zu schaffende neue Behörde" von der Macht dieser Großen einfach eingewickelt und die Kontrolle zu einem bloßen Schaulaufen wird.

Wenn es nun bis zur Europawahl nichts wird, sollte man die Zeit nutzen, um die Risiken genauer zu spezifizieren. Dazu gehören neben Datenschutz, rechtlichen, Haftungs- und Copyright Fragen auch die unerträglichen Arbeitsbedingungen der Menschen die die KI trainieren, der immense Stromverbrauch der KI. Fragen der Diskriminierung von Frauen und Menschen, die nicht weiß sind, sind bekannt aber noch längst ist nicht klar, wie sie gelöst werden können.

Mehr dazu bei https://www.heise.de/hintergrund/AI-Act-KI-Gesetz-der-EU-droht-zu-kippen-9531914.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xn
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8590-20231118-ki-act-droht-zu-scheitern.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8590-20231118-ki-act-droht-zu-scheitern.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Rasterfahndung

aktionfsa@diasp.eu

25.10.2023 EU KI-Verordnung noch mangelhaft

Was sollte noch in die KI Verordnung?

Welche Gefahren durch einen leichtsinigen Einsatz von künstlicher Intelligenz (KI) geschehen können, haben wir bereits mehrfach beschrieben. Fatale Folgen fehlerhafter Algorithmen finden sich z.B.in diesem Artikel. Mit einem davon beginnt auch der verlinkte Artikel von netzpolitik.org:

Weil die niederländische Steuerbehörde einen fehlerbehafteten Algorithmus eingesetzt hatte, verlangte sie von mehr als 20.000 Familien zu Unrecht hohe Summen an Kindergeld zurück. Der Fehler stürzte unzählige Familien in Armut, mehr als 1.000 Kinder landeten in Pflegestellen.

Damit so etwas o.ä. nicht passiert wird seit einiger Zeit bei der EU über eine KI Verordnung diskutiert. Nun ist diese Verordnung fast fertig, aber wichtige Stellschrauben fehlen noch immer. Die Forderung von Datenschützern und Netzgemeinde sind u.a.:

  • Gesichtserkennung und andere inakzeptable Technologien verbieten,
  • Predictive Policing, Emotionserkennungs-KI und Systeme zur biometrischen Kategorisierung dürfen nicht gegen Menschen eingesetzt werden,
  • Transparenz: ein KI-Einsatz durch Behörden darf kein Geheimnis sein,
  • kein Blankoschein für Missbrauch unter dem Deckmantel „Nationale Sicherheit”,
  • keine Schlupflöcher in der Definition von „Hochrisiko“-KI,
  • regelmäßige Überprüfung im Betrieb: Systeme zeigen mitunter ihre Risiken erst, wenn sie sich in der konkreten Anwendung befinden.

Mit Stand heute will der Rat der EU ausgerechnet Sicherheits- und Migrationsbehörden von einer Transparenzpflicht befreien und für die „Nationale Sicherheit” wird ein Dechmantel über die geplanten Anwendungen gelegt. Das darf nicht passieren. Deshalb muss das EU Parlament noch einige Arbeit in den bis jetzt vorliegenden Entwurf der KI Verordnung investieren und den Ratsentwurf nicht einfach durchwinken.

Mehr dazu bei https://netzpolitik.org/2023/ki-verordnung-auf-der-zielgeraden-welche-schlupfloecher-die-eu-jetzt-noch-schliessen-muss/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3wW
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8565-20231025-eu-ki-verordnung-noch-mangelhaft.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8565-20231025-eu-ki-verordnung-noch-mangelhaft.html
Tags: #KIVerordnung #EURat #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Smartphone #Handy #Überwachung #DataMining #Rasterfahndung #Sozialbetrug

aktionfsa@diasp.eu

01.08.2023 Gibt die EU Kommission klein bei?

Zugriff auf unsere biometrischen Daten durch die US-Polizei?

Wenn sich die EU, allen voran der EuGH so kleinlich haben und den USA ständig verbieten wollen auf die Daten der EU Bürger zuzugreifen - und zwar egal ob das Abkommen dazu Safe Harbor oder Privacy Shield heißt - dann vereinbaren die USA die Weitergabe der Daten einfach mit jedem Staat in der EU einzeln.

Wie netzpoliti.org schreibt, wollen US-Behörden Fingerabdrücke und Gesichtsbilder in insgesamt 40 Staaten abfragen, die meisten davon in Europa. "Um einem Flickenteppich zu vermeiden" will sich nun die EU Kommission doch zu dem Deal hinreißen lassen.

Damit ihre Bürger:innen zu geschäftlichen oder touristischen Zwecken für maximal drei Monate ohne Visum in die USA einreisen dürfen - so sieht es das "Visa Waiver Program" (VWP) der US-Regierung vor - müssen die Polizeien im Rahmen eines „Enhanced Border Security Partnership“ (EBSP) Zugang zu ihren Biometrie-Datenbanken für Fingerabdrücke und biometrische Fotos gewähren.

Selbst netzpolitik.org stellt erstaunt fest: "Ein solcher Direktzugriff aus dem Ausland ist selbst unter befreundeten Geheimdiensten unüblich." Damit würden die USA nach mehr als 10-jährigem Bemühen letztendlich doch ihren Willen durchsetzen.

Außerdem würde das Verfahren den 1997 geschlossenen Vertrag von Amsterdam zur EU-Visapolitik verletzen. Danach müssen alle EU-Bürger, egal aus welchem Staat sie kommen, gleich behandelt werden. Da Bürgern aus Bulgarien, Rumänien und Zypern aber die Teilnahme am visafreien Reisen in die USA weiterhin verwehrt sein soll, werden diese drei Staaten benachteiligt.

Zu diesen rechtlichen Verletzungen kommt noch der schale Beigeschmack, dass diie „Enhanced Border Security Partnership“ nicht auf Gegenseitigkeit beruht, denn der direkte Zugriff deutscher Behörden auf die entsprechenden Daten von US Bürgern soll erst 2027 in die Diskussion einbezogen werden. Flüchtlingsorganisationen befürchten auch, dass die Abfragen der sensiblen Daten für Asylverfahren genutzt werden können.

Formal muss die EU Kommission erst einmal einen Auftrag für Verhandlungen von den EU Staaten zu diesem Thema bekommen, doch der Druck dazu wird von den USA aufgebaut.

Mehr dazu bei https://netzpolitik.org/2023/alleingang-in-bruessel-eu-kommission-prueft-zugriff-auf-biometriedaten-durch-us-polizei/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3vr
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8478-20230801-gibt-die-eu-kommission-klein-bei.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8478-20230801-gibt-die-eu-kommission-klein-bei.html
Tags: #USA #EU #Polizei #Geheimdienste #Biometrie #Fingerabdruck #IrisScan #Visa #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Anonymisierung #Fingerabdruck #ElektronischerPersonalausweis #ElektronischerPass #EnhancedBorderSecurityPartnership #EBSP #DataMining #Asylantrag #eBorder #VisaWaiverProgram #VWP

aktionfsa@diasp.eu

14.07.2023 Fatale Folgen fehlerhafter Algorithmen

Krasses Scheitern von "künstlicher Intelligenz"

Kurz vor dem Abschluss der EU-Verordnung zum Umgang mit Künstlicher Intelligenz vor 3 Wochen im Plenum des EU-Parlaments wurden auch eine Reihe von Beispielen bekant, in denen der Einsatz von Algorithmen zur "Steuerung des Gemeinwesens" fatale Folgen für die Betroffenen entwickelt hat.

Bei Heise.de gibt es die ausführlichen Geschichten dazu. In der Kurzfassung:

  • Eine holländische Gemeinde möchte zur Argumentation für eine Umgehungsstraße analysieren, welchen reinen Durchgangsverkehr es dort gibt. Das (ungewollte) Ergebnis sind die Smartphones - und damit Menschen - die im Ort das Zentrum einer religösen Minderheit in den Niederlanden besuchen.
  • Ein anderer Algorithmus soll die Datensätze aller Bezieher von Sozialzuschüssen systematisch überprüfen. Mehr als 10.000 junge Elternpaare werden des Sozialbetrugs bezichtigt, die Zuschüsse gestrichen und Rückzahlungen gefordert. Die Betroffenen standen vor großen finanziellen Problemen. Trotzdem wurde das Programm fortgeführt bis sich herausstellte, dass der Algorithmus den Faktor der "Doppelstaatsbürgerschaft" viel zu hoch bewertet hatte. Die weitaus meisten Fälle stellten sich als falsche Treffer (False Positives) heraus.
  • In Italien wollte man den notorischen Lehrermangel bekämpfen, in dem man dem bisherigen persönlichen Stellenbesetzungsverfahren einen Algorithmus vorschaltete. Die Nebenwirkungen waren verheerend, denn vielen erfahrenen Pädagogen wurden nur Aushilfslehrerstellen angeboten, oder sie wurden sogar plötzlich arbeitslos, weil der Algrithmus abgelehnte Bewerber automatsich als schlecht(er) qualifiziert einstufte.

Verteidiger der Digitalisierung werden argumentieren, dass in allen 3 Fällen die Algorithmen schlecht programmiert waren oder in einem "unpassenden" Kontext angewendet wurden. Also waren in allen Fällen auch Menschen die Schuldigen für die aufgetretenen Fehler.

Das mag stimmen, aber solange uns die "alleinseeligmachende Super-KI" nicht regiert, werden (glücklicherweise) Menschen die Planung und den Einsatz vornehmen. Wie heise.de feststellt, müssen diese mindestens besser ausgebildet werden: "Um fehlerhafte Algorithmen zu identifizieren, braucht es aber spezielle Skills und die sind zurzeit nicht einmal bei Datenschutzbehörden vorhanden."

Es reicht nicht, ein kleines Problem zu analysieren und dafür eine Lösung zu programmieren. In unserer Gesellschaft hängt alles von vielem ab. Schauen wir mal, welche Probleme die KI-Verordnung löst und welche sie vergrößert ...

Mehr dazu bei https://www.heise.de/news/Kuenstliche-Intelligenz-Drei-Beispiele-fuer-das-Scheitern-von-Algorithmen-9205911.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3v7
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8459-20230714-fatale-folgen-fehlerhafter-algorithmen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8459-20230714-fatale-folgen-fehlerhafter-algorithmen.html
Tags: #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Smartphone #Handy #Überwachung #DataMining #Rasterfahndung #Lehrerauswahl #Bewerber #Sozialbetrug
Erstellt: 2023-07-14 07:28:31

aktionfsa@diasp.eu

14.06.2023 Waffengleicheit durch Handyaufnahme gegen Bodycam?

Ist es strafbar einen Polizeieinsatz zu filmen?

Dazu gibt es inzwischen die unterschiedlichsten Gerichtsentscheidungen von Amtsgerichten, Landgerichten, zuletzt sogar von zwei Oberlandesgerichten. Sortieren wir erst einmal die Vorwürfe und dann die Urteile.

Wir setzen dabei voraus, dass das Smartphone auch in der Lage ist den Ton aufzuzeichnen. Während der in der Öffentlichkeit ablaufende Polizeieinsatz ein öffentliches Ereignis ist, sind die Gespräche der Polizisten untereinander "nichtöffentlich". Damit dürfen sie nicht aufgezeichnet werden, im Gegensatz etwa zu Ansagen der Polizei gegenüber z.B. Demonstranten.

So hat nun das Landgericht (LG) Hanau Aussagen zu genau diesem Aspekt geliefert, der bisher noch nicht gerichtlich entschieden wurde. Wenn bei einem Polizeieinsatz die Bodycam eines Polizeibeamten eingeschaltet ist, dann macht sich nicht strafbar, wer auf der anderen Seite mit seinem Smartphone filmt und den Ton aufnimmt. Die Gespräche der Polizisten sind in der laufenden Aufnahmesituation "öffentlich".

Wenn die Polizei zum Zweck der Beweissicherung aufzeichnet, dürfen es – und zwar straffrei – auch Betroffene auf der anderen Seite. Es soll Waffengleichheit herrschen (Beschl. v. 20.04.2023 Az. 1 Qs 23/22).
Wenn die Bodycams nicht laufen? Was dann?

Es geht nur um den Ton, denn § 201 StGB schützt die Vertraulichkeit des Wortes. Wenn es technisch geht, könnte man auf die Tonaufzeichnung verzichten und wäre aus dem Schneider. Problem dabei: Erkläre das mal dem Polizisten, der dir gegenüber steht ...

Rechtswissenschaftler sind der Meinung, dass die Strafvorschrift von § 201 StGB nicht auf Polizeieinsätze in der Öffentlichkeit passe. Sie sprechen von einer "faktischen Öffentlichkeit". Das Oberlandesgericht Düsseldorf und das Landgericht Aachen sehen das jedoch sehr eng. Da Fälle zum § 201 StGB nur beim Amtsgericht und bei Beschwerde beim Landgericht entschieden werden, wird man weiter Rechtsunsicherheit haben, denn eine BGH oder OLG Entscheidung ist dazu selten zu erwarten. Natürlich könnte die Politik durch eine Klarstellung im Gesetz für Rechtssicherheit sorgen, wenn inzwischen Jede/r sein Handy "zur Beweissicherung" - oder aus Sensationsgier - zückt.

Mehr dazu bei https://www.lto.de/recht/hintergruende/h/lg-hanau-1qs2322-polizei-einsatz-filmen-smartphone-strafbar-201-stgb-strafrecht-bodycam/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3uA
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8429-20230614-waffengleicheit-durch-handyaufnahme-gegen-bodycam.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8429-20230614-waffengleicheit-durch-handyaufnahme-gegen-bodycam.html
Tags: #Waffengleicheit #Smartphone #Handyaufnahme #Bodycam #Polizeieinsatz #Urteile #Unterschiede #Tonaufnahme #Verhaltensänderung #Öffentlichkeit #Lauschangriff #Überwachung #DataMining #Videoüberwachung #Polizeigewalt

aktionfsa@diasp.eu

09.06.2023 Spionage Software auf iPhone

Meist Nutzer im mittleren bis höheren Management betroffen

Vor einer Woche schrieb uns ein Leser als Kommentar zu unserem Artikel über die "Aneignung von allem durch Wenige", wo es um das Abschöpfen der menschlichen Erfahrung und des Wissens durch wenige große Internetkonzerne ging:

Google mit der Hilfe von der CIA gegründet ( https://en.wikipedia.org/wiki/In-Q-Tel?oldformat=true )!
Facebook mit Hilfe der CIA gegründet ( https://en.wikipedia.org/wiki/In-Q-Tel?oldformat=true )!
Also, was soll man anders erwarten?

Scheinbar ging es nicht nur um die Gründung, sondern auch um den langfristigen Betrieb und eine gedeihliche Zusammenarbeit - auch wenn Apple in dem verlinkten Artikel jede Zusammenarbeit mit US Geheimdiensten leugnet. Es wurde jedoch in Tausenden iPhones Malware gefunden, darunter auch in denen ausländischer Diplomaten in Moskau. Das russische Security Unternehmen Kaspersky hat den Trojaner namens Triangulation aufgedeckt und hält ihn für sehr professionell gemacht.

Die Nachrichtenagentur Reuters berichtet, dass mit dem Trojaner auch SIM-Karten infiziert waren, die für diplomatische Vertretungen in Russland, darunter NATO-Länder, ehemalige Sowjetrepubliken sowie Israel, Syrien und China registriert waren. Eine solche “extrem komplexe, professionell angelegte Cyberattacke” auf der proprietären und sehr abgeschotteten Software eines iPhone zum Laufen zu bekommen, erfordert internes Wissen über die iPhone Software.

Auch das Entdecken des Trojaners war schwierig, weil - im Gegensatz zu quelloffenen Systemen wie Unix oder Linux - das iPhone ein Betriebssystem besitzt, dass für Außenstehende eine “Black Box” darstellt. Kaspersky räumt in diesem Zusammenhang auch mit der irrigen Vorstellung auf, dass Apples Software wegen der Abgeschlossenheit Sicherheit garantiert. Den Nutzern wird lediglich die Illusion von Sicherheit vermittelt und das Gerät wird damit eigentlich zu einem perfekten Zufluchtsort für Spionageprogramme.

Wie bereits eingangs gesagt: Apple streitet jede Beteiligung an dem Trojaner ab.

Mehr dazu bei https://tkp.at/2023/06/02/us-spionage-trojaner-auf-iphones-entdeckt-kaspersky-und-russischer-geheimdienst/

Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3uv
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8424-20230609-spionage-software-auf-iphone.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8424-20230609-spionage-software-auf-iphone.html
Tags: #Spionage #Trojaner #Kaspersky #Datenkraken #Apple #iPhone #iPad #aSozialeNetzwerke #Verhaltensänderung #NATO #NSA #CIA #USA #Verbraucherdatenschutz #Datenskandale #Datensicherheit #Überwachung #DataMining #Privatsphäre #Verhaltensänderung

aktionfsa@diasp.eu

27.06.2023 Diskussion zum Schutz der Privatsphäre

Meine Daten gehören mir

Unter diesem Titel laden wir für den 27.6. ab 19h in den Linkstreff Wedding, Malplaqutstr. 12, Nähe U Leopldplatz zu einer Diskussion im Rahmen der Berliner Seniorenwoche.

Wir wollen mit allen Interessierten darüber ins Gespräch kommen, wie wir durch die Nutzung scheinbar “kostenloser” Internetdienste, wie Google, Facebook, WhatsApp, Twitter, Instagram, TikTok u.v.m. unsere Privatsphäre an diese Internetgiganten ausliefern.

Wir wollen gemeinsam untersuchen

  • wo überall unsere persönlichen Daten gefährdet sind,
  • was wir persönlich dagegen tun können,
  • welche Maßnahmen wir von den verantwortlichen Politikern erwarten.

Wir wollen auch bessere Alternativen nennen und nach Möglichkeit demonstrieren. An Folgeterminen können wir in diese tiefer einsteigen.

Als Einstieg zu diesem vieldiskutierten Thema bieten sich folgende unserer Artikel an

Wegen des begrenzten Platzangebot bitten wir um Anmeldung unter kontakt@aktion-fsa.de

Mehr dazu bei https://www.berlin.de/sen/soziales/besondere-lebenssituationen/seniorinnen-und-senioren/berliner-seniorenwoche/wochenprogramm/index.php/detail/971
und https://www.aktion-freiheitstattangst.org/events/3419-20230627.html
und https://www.aktion-freiheitstattangst.org/de/articles/7898-20220118-persoenliche-daten-sollen-privatangelegenheit-bleiben.html
Kategorie[26]: Verbraucher- & ArbeitnehmerInnen-Datenschutz Short-Link dieser Seite: a-fsa.de/d/3uu
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8423-20230627-diskussion-zum-schutz-der-privatsphaere.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8423-20230627-diskussion-zum-schutz-der-privatsphaere.html
Tags: #Diskussion #Datenkraken #Twitter #Facebook #Alfabet #Google #Amazon #EU #aSozialeNetzwerke #Verhaltensänderung #USA #Meinungsmonopol #Meinungsfreiheit #Verbraucherdatenschutz #Datenskandale #Datensicherheit #Seniorenwoche #Datenklau #Überwachung #DataMining #Privatsphäre #Verhaltensänderung

aktionfsa@diasp.eu

01.06.2023 Ausweitung der Internetüberwachung

Medienaufsicht als Hilfssheriff

Unter dem Begriff Medienaufsicht hat man lange Zeit einen Bereich des öffentlich-rechtlichen Rundfunks in Deutschland verstanden, der sich darum kümmert, dass das Radio- und Fernseh-Programm ausgewogen gestaltet ist und die Sendungen entsprechend ihres FSK-Wertes "altersgerecht" in den Zeitschienen liegen.

Im Zeitalter des Internets hat die Medienaufsicht weitere Aufgaben bekommen. Nachdem in NRW mit dem Programm KIVI (KI-vigilare, überwachen) die Kontrolle von Internetinhalten "erfolgreich" getestet wurde, wird dieses Überwachungsprogramm nun bundesweit ausgerollt. Die Medienaufsicht hat damit auch einen direkten Draht zum BKA und kann nun als Hilfssheriff bezeichnet werden.

Was wird kontrolliert?

Mithilfe der Software KIVI durchforstet die Behörde Websites und soziale Medien auf der Suche nach Straftaten wie Volksverhetzung, schreibt netzpolitik.org. Warum so konkret? Wir haben jetzt eine deutschlandweite Überwachung von Online-Inhalten und das hört sich natürlich nicht gut an, wo doch die Meinungs- und Pressefreiheit ein Grundrecht sind. Also benennt man zuerst mal einen Straftatbestand, der sich für Jede/n ganz scheußlich anhört. In der Realität sucht KIVI schon jetzt nach Verharmlosung von Drogen, Gewaltdarstellungen oder Pronografie. Überwacht wird die Kommunikation innerhalb von YouTube, Twitter, TikTok und Telegram - was noch? Wie erfolgreich/erfolglos sieht es bei verschlüsselter Kommunikation, etwa bei WhatsApp, Threema, u.a. aus?

Wie wird kontrolliert?

Die Software schaut sich automatisch Online-Inhalte per Stichwortsuche und Bilderkennung an und meldet "Verdächtiges". Hier endet die angebliche künstliche Intelligenz (KI) und wie bei der Kontrolle der Flugreisedaten (PNR, Passenger Name Records) müssen dann Menschen die gefundenen Treffer sichten und beurteilen, ob es sich wirklich um einen Verdacht handelt. Im Unterschied zu den PNR Daten, die von BKA-Beamten gesichtet werden, müssen sich die Online-Inhalte nun Beschäftigte der Medienaufsicht anschauen und bewerten.Treffer werden dann an das BKA weitergeleitet.

Alles was nach Digitalisierung klingt oder sogar die Buchstaben KI enthält wird natürlich als Modernisierung und Erfolg gefeiert. KIVI hat bei den Tests in NRW etwa 2 Treffer pro Tag geliefert. Das klingt nach wenig, allerdings ist uns nicht bekannt, ob das die Treffer nach der "menschlichen Sichtung" oder des Systems waren. Denken wir an die Mühsal der BKA Beamten, die die 99,7% falschen Treffer (False Positives) bei den PNR Daten sichten müssen (Flugreisedatenauswertung liefert 99,7% Fehler ).

Vergessen wir nicht, dass ein einmal eingeführtes Verhalten oder System wieder schwer abzuschaffen sein wird. Wehret den Anfängen der Kontrolle von Inhalten! Erinnern wir uns: Jahrelang wurde uns bei der Vorratsdatenspeicherung (VDS) gesagt, dass niemand die Absicht habe die Inhalte unserer Kommunikation zu kontrollieren, es ginge nur um die Verbindungsdaten.

Mehr dazu bei https://netzpolitik.org/2023/direkter-draht-zum-bka-medienaufsicht-baut-internet-ueberwachung-aus/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3un
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8416-20230601-ausweitung-der-internetueberwachung.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8416-20230601-ausweitung-der-internetueberwachung.html
Tags: #Medienaufsicht #Hilfssheriff #BKA #Rddio #Fernsehen #TV #FSK #YouTube #Twitter #TikTok #Telegram #PNR #Digitalisierung #KI #AI #KüsntlicheInteligenz #Lauschangriff #Überwachung #DataMining #Videoüberwachung #Rasterfahndung #Grundrechte #Menschenrechte #Meinungsfreiheit #Pressefreiheit

digit@iviv.hu

#listen #consider

https://soundcloud.com/drmercola/big-data-transhumanism-and-why

#whitneywebb #mercola

#cbdc #voluntaryfirst #involuntary #totalcontrol #centralbankdigitalcurrencies #massrejectcbdcs #whitneywebb #mercola #convenience #trap #wakeup #compromises #complicity #dependence #disempowerment #independence #duress #massadoption #foodstamps #forced #uptake #reduced #standardofliving #controlsystem #controlsystemdisguisedasamonetarysystem #monetarysystem #fakechoice #fightit #fightback #sayno #voluntaryphase #tradeandbarter #massadoption #massrejection #parallelsystems #community #supporteachother #remainoptimistic #getwise #wearenotaminority #speakout #ispytotalitariantiptoe #ifweallnarutoruntogether #accounts #censorship #nudgeunit #psyop #perceptionmanagement #problemreactionsolution #rememberwhenwesaidno #ifyoucanbetoldwhatyoucanseeorreadthenitfollowsyoucanbetoldwhattosayorthink #socialmedia #propaganda #socialmanipulation #intellectualphaselocking #groupthink #riggedpsychgelogicalmanipulationuserinterface #theeverythingapp #musk #datamining #wifi #biologicalcost #privacy #profiling #precrime #harpa #advertisingormarketing #arpa-h #biotech #bigpharma #siliconvalley #nationalsecurity #cia #hhs #fda #googlehealth #normalisedregulatorycapture #bigactors #agenda #transhumanism #theneweugenics #eugenics #ARPA-H #borg #totalinformationawareness #masssurveilance #glaxosmitklien #galvanibioelectronics #palanteer #fascbook #pentagon #terroristinformationawareness #corporatarchy #scamarchy #aipredictive #scam #scamdemic #powergrab #racketeering #robberbarons #biosecurity #coinflip #arbritrary #corruption #insanity #agi #gpt3 #gpt4 #plans #thehourislaterthanyouthink #aimarketing #aisingularity #leadbyfools #kissinger #skynet #theworkofman #themanbehindthecurtain #themonkeyinthemachine #trustmeiamanai #thegreatergood #notnormal #deskkillers #scapegoatai #externalities #normalisedattrocities #totalitarianism #dataism #croneyism #cantgettherefromhere

#remainoptimistic

#wecanstillmendthis

#watchthemcollapse #isitsowndestruction

aktionfsa@diasp.eu

05.05.2023 Warnung vor ungebremster KI-Entwicklung

"Godfather of AI" hat bei Google gekündigt

Seinen Job bei Google hat Geoffrey Hinton, der oft als "Godfather of AI" bezeichnet wird, kürzlich gekündigt. Gegenüber der "New York Times" warnte er, dass die Fortschritte auf dem Feld der Künstlichen Intelligenz (KI, engl. AI) "ernste Risiken für die Gesellschaft und für die Menschheit" bedeuten würde. Seine Befürchtung ist

"Es ist schwierig sich vorzustellen, wie man die Bösen daran hindert, KI für böse Dinge einzusetzen."

Siehe dazu auch Verhaltenssteuerung und Manipulation durch KI Systeme. Das Problem verdeutlicht ein Test des ZDF mit der KI "Jenny", die nach einigem Wortgeplänkel feststellt:

"Als Künstliche Intelligenz habe ich keine Emotionen oder Gefühle, daher beeinflusst es mich nicht persönlich, wenn Menschen Angst vor mir haben".

Google, Microsoft und andere haben mit dem Unternehmen OpenAI - das Startup, das den bekannten Chatbot ChatGPT entwickelt hat - begonnen ihre lernenden Systeme in allgemein genutzte Anwendungen zu integrieren. Auch wenn das "Lernen" dieser Systeme zur Zeit noch viele Menschen (zu unwürdigen Bedingungen) beschäftigt, um die Datenmengen zu sortieren und zu klassifizieren, so befürchtet Hinton, dass langfristig durch KI-Systeme viele Jobs wegfallen werden.

Google reagierte auf die Kündigung mit folgenden Worten: "Google lerne beim Verständnis der Risiken beständig dazu - und führe gleichzeitig weiterhin "kühn" Neuerungen ein."

Na, dann brauchen wir uns ja keine Sorgen machen ...

Aber selbst Elon Musk und zahlreiche Experten hatten Ende März eine Pause bei der Entwicklung von besonders fortgeschrittener Künstlicher Intelligenz gefordert.

Mehr dazu bei https://www.zdf.de/nachrichten/wirtschaft/google-ki-gefahr-hinton-100.html
und alle unsere Artikel zu KI https://www.aktion-freiheitstattangst.org/cgi-bin/searchart.pl?suche=Intelligenz&sel=meta
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tV
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8390-20230505-warnung-vor-ungebremster-ki-entwicklung.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8390-20230505-warnung-vor-ungebremster-ki-entwicklung.html
Tags: #Google #Algorithmen #Steuerung #CambridgeAnalytics #Wahlen #SocialProfiling #Ausgrenzung #Belohnung #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining

aktionfsa@diasp.eu

28.04.2023 Erster Bericht des Unabhängigen Kontrollrats

Die Überwacher überwachen - Teil 2

Vor 2 Monaten hatten wir berichtet, dass der Unabhängige Kontrollrat seine Arbeit aufgenommen hat. Der UK musste eingerichtet werden, nachdem das BVerfG die unkontrollierte "Überwachungs-Arbeit" des BND gerügt hatte. Da es bundesweit keine abhörsicheren Räume für die Arbeit der neuen Behörde gab, mussten sich die Mitglieder des Gremiums im einstigen Pferdestall einer ehemaligen preußischen Kaserne, jetzt Außenstelle des BND treffen - um genau diesen zu überwachen.

Zwei kleine positive Nachrichten

Nun gibt es zweimal etwas Positives aus diesem schweigsamen Gremium zu berichten. Die nichtstandesgemäße Behausung in Lichterfelde wird gegen theoretisch lichtdurchflutete neue Räume am Moabiter Spreebogen getauscht werden - trotzdem wird es nicht mehr Infos über deren Arbeit geben.

Zum Anderen hat der UK nach Recherchen von WDR und NDR erstmals einen schriftlichen Bericht zur BND-Überwachung vorgelegt. In einem 60-seitigen Dokument an die Mitglieder des Parlamentarische Kontrollgremiums (PKGr) des Bundestages - dessen Arbeit "natürlich" auch geheim ist - gibt der UK Infos über seine Tätigkeit zu den Abhöraktionen des BND im vergangenen Jahr. Er hat diese kontrolliert und bewertet, allerdings hat der UK nahezu jede der vom BND beantragten 121 Überwachungsmaßnahmen genehmigt. Dazu gehörten auch Hacking-Operationen bei denen sich der BND in Handychats und andere Onlinekommunikation einklinkt.

54% der BND-Maßnahmen des vergangenen Jahres betrafen die strategische Aufklärung, damit ist das Durchforsten von Datenströmen nach bestimmten Suchbegriffen gemeint, die unser Ehrenmitglied Edward Snowden bereits 2013 öffentlich gemacht und kritisiert hat. Im Gegensatz zu den damals ergebnislosen Diskussionen um diese Suchbegriffe soll es jetzt Praxis sein, dass die damals von US-amerikanischen NSA oder des britischen Abhördienstes GCHQ verschlüsselten Suchbegriffslisten nun dem BND und auch dem UK vollständig(?) vorliegen.

Vielleicht um nicht in den Verdacht eines unkritischen Abnickgremiums zu kommen und seine Existenz zu rechtfertigen, hat der UK mindestens eine Überwachungsaktion gegen eine "juristische Person" in Deutschland beanstandet. Umgekehrt äußern BND-Mitarbeiter, dass sich ihre Befürchtungen über Mehrarbeit durch die zusätzlichen Anträge an den UK bestätigt haben.

Mit wirklicher Transparenz hat das alles noch wenig zu tun ...

Mehr dazu bei https://www.tagesschau.de/investigativ/ndr-wdr/bnd-unabhaengiger-kontrollrat-101.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tM
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8382-20230428-erster-bericht-des-unabhaengigen-kontrollrats.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8382-20230428-erster-bericht-des-unabhaengigen-kontrollrats.html
Tags: #BND #UK #UnabhängigerKontrollrat #ParlamentarischesKontrollgremium #Bundestag #PKGr #Spionage #Misstrauen #Geheimhaltung #Transparenz #Informationsfreiheit #EdwardSnowden #Lauschangriff #Überwachung #Rasterfahndung #DataMining