#algorithmen

spektrum@anonsys.net

Ian Stewart ist einer der populärsten englischsprachigen Mathematiker. Sein Buch veranschaulicht, wie stark unser Leben von angewandter Mathematik geprägt ist. Eine Rezension

Wer verstehen möchte, wie zahlreich und wichtig Anwendungen von Mathematik für unseren Alltag sind, wird in diesem spannenden Buch fündig. Eine Rezension (Rezension zu Die Welt als Zahl von Ian Stewart)#Mathematik #Technik #KünstlicheIntelligenz #KI #Naturwissenschaft #Einstein #Relativitätstheorie #Quantenphysik #Algorithmen #Digitalisierung #ChatGPT #Astronomie #ITTech #Physik
»Die Welt als Zahl«: Ob Navi oder Organtransplantation: die Präsenz der Mathematik

aktionfsa@diasp.eu

18.04.2024 KI in der Kriegsführung

KI fehlt in der Genfer Konvention

Während man bei der ersten KI Verordnung der Welt die möglichen Verzerrungen und Diskriminierungen bei ihrem Einsatz in Wirtschaft und im Geschäftsleben und möglichen Arbeitsplatzverluste mit Aufmerksamkeit betrachtet hat, wird der Einsatz von KI im militärischen Bereich dort überhaupt nicht erwähnt.

Cathy Mulligan weist jedoch bei Netzpolitik.org in einem Gastbeitrag auf folgendes hin: Automatisierte Entscheidungsfindung oder automatisierte Waffen automatisieren nicht nur den Krieg an sich, sondern sie können auch die Rollen der Bürger:innen innerhalb der Genfer Konventionen verändern und verschieben.

"Kriegsführung mit der Geschwindigkeit von Computern, nicht mit der Geschwindigkeit von Menschen"

... sagt Eric Schmidt, ehemaliger CEO von Google und nebenbei als Vorsitzender des Advisory Committee for the Department of Defense und der National Security Commission on Artificial Intelligence tätig. Ihm ist es mit Blick auf das (militärische) Verhältnis zwischen den Inkas und den spanischen Konquistadores wichtig, einen vergleichbaren "Qualitätsunterschied" herzustellen, so dass die USA zu einer vollautomatischen Kriegsführung fähig sind.

SDI nach 40 Jahren realistisch

US Präsident Reagans Star Wars Pläne aus den 80-iger Jahren sind heute möglich, denn KI kann die Flugbahnen ballistischer Raketen im Voraus berechnen, um sie dann präventiv abzufangen oder umzulenken. In den Projekten Maven der USA und gemeinsamen Projekten wie AUKUS von Australien, den USA und Großbritannien wird seit einigen Jahren aktiv an der Entwicklung automatisierter robotischer Waffensysteme gearbeitet. Natürlich wird gleichzeitig an neuen Waffen, wie Hyperschallraketen gearbeitet, die wiederum diese Systeme austricksen sollen.

Dieser Wettlauf ist nicht neu, jedoch ergibt sich eine neue Betrachtung bei einem Blick in die Genfer Konventionen und ihre Zusatzprotokolle, die den Kern des humanitären Völkerrechts bilden: "… eine Person, die sich direkt an den Feindseligkeiten beteiligt, wird als rechtmäßiges Ziel betrachtet." (Dabei wollen wir nicht die Leo-II-Diskussion vom vergangenen Jahr oder die Zielkoordinaten für Taurus aufleben lassen ...)

Entscheidender mit Blick auf die KI wird dann sein, wo liegen die (verteilten) KI Datenbanken und wer betreut diese. Nach obiger Defintion sind eventuell alle diese "Zivilisten" ein rechtmäßiges Ziel für den Gegner. Oft kommt es in kriegerischen Auseinandersetzungen neuerdings auch zu Cyberangriffen. Dazu werden regelmäßig auch Computer von Zivilisten genutzt, die diese entweder für über KI koordinierte Distributed-Denial-of-Service-Angriffe (DDoS) zur Verfügung gestellt haben oder diese wurden durch Computerviren für diese Aktivitäten gehackt und genutzt.

Allein das Herumtragen eines Smartphones kann bereits durch die Bewegungsprofile "militärische Informationen" über Staus oder Fluchtbewegungen liefern und damit zu einem (eventuell bedeutenden) Dateninput für den Kriegsverlauf werden.

Human-in-the-Loop

Zurück zu dem Satz von Eric Schmidt, dieser macht den Unterschied zwischen KI-Kriegsführung und der Drohung mit Atombomben deutlich. Während ein interkontinentaler Atomraketenangriff noch eine Reaktionszeit von 20 Minuten lässt, kann die KI in Sekundenbruchteilen "entscheiden". Deshalb müssen, wie Cathy Muligan sagt, geschulte Entscheider an bestimmten Stellen in die KI-Prozesse einbezogen [werden], um sicherzustellen, dass ein Mensch die Entscheidungen trifft und nicht die Algorithmen selbst. Auf diese Weise soll sichergestellt werden, dass menschliche Ethik und Moral in die Entscheidungsprozesse einfließen und somit die Einhaltung des humanitären Völkerrechts gewährleistet ist.

Wie auch Frau Mulligan, sehen wir darin jedoch keine Lösung, denn diese geschulten Entscheider werden je nach ihrer Entscheidung und nach Ausgang des Konflikts von der einen oder andern Seite als Kriegsverbrecher an die Wand gestellt. Kein Mensch kann den auf ihn einstürmenden Wust an Daten im richtigen Augenblick sinnvoll bewerten. Eine Lösung kann nur in einer Rückkehr zu nachprüfbaren Abrüstungsvereinbarungen im Rahmen der UNO liegen und nie in Kriegen oder angeblich überlegener Kriegstechnik.

Das wollte schon Tucholsky mit seinen Worten "Soldaten sind Mörder" ausdrücken - KI-Unterstützung macht das Morden nicht besser - und damit bleibt uns allen nur eine Konsequenz bleibt: Nie wieder Krieg!

Mehr dazu bei https://netzpolitik.org/2024/kuenstliche-intelligenz-automatisierte-kriegsfuehrung-und-die-genfer-konvention/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3A8
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8749-20240418-ki-in-der-kriegsfuehrung.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8749-20240418-ki-in-der-kriegsfuehrung.html
Tags: #Google #KIAct #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Gesichtserkennung #Fernerkennung #Anonymisierung #FalsePositives #GenferKonvention #UNO #Diskiminierung #Überwachung #DataMining #Atomwaffen #Militär #Bundeswehr #Aufrüstung #Waffenexporte #Drohnen #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln

spektrum@anonsys.net

Künstliche Intelligenz löst Probleme, wo Menschen scheitern. Aber auf dem Weg zu besserer Wissenschaft könnten die Programme den gleichen Illusionen erliegen wie ihre Schöpfer.#KünstlicheIntelligenz #Algorithmen #Vorurteile #Bias #Programme #ITTech
Fehlbare Instrumente der Erkenntnis

aktionfsa@diasp.eu

15.03.2024 Erste KI Verordnung der Welt

Regelungen zur Einschränkung von Überwachung völlig unzureichend

Die EU hat es nun doch noch geschafft, die KI Verordnung zu beschließen. Bis zuletzt stand ein beschlussfähiges Ergebnis auf der Kippe, denn wie wir berichtet hatten, hatten Deutschland und Frankreich plötzlich Bedenken, die "europäische KI Entwicklung einzuschränken". (KI-Act droht zu scheitern)

Wie bei der EU üblich, sollen wir nun mit einem Kompromiss leben, der vieles anspricht, aber nur wenig regelt. Schauen wir uns die Ergebnisse genauer an.

  • Verboten wird der Einsatz von KI
  • bei der Gefühlserkennung,
  • für Social Credit Systeme.
  • Eine Kennzeichnung wird vorgeschrieben für KI Anwendungen
  • die Texte oder
  • Bilder generieren.
  • Für sogenannte "Hochrisikotechnologien" werden "Auflagen" gemacht, das sind
  • die Gesichtserkennung,
  • das autonome Fahren,
  • medizinische Diagnosen und
  • das Personal-Recruiting.

Der Fehler im System

... springt uns direkt ins Gesicht. Warum werden ausgerechnet für "Hochrisikotechnologien" Ausnahmen gemacht. Diese sollte am besten ganz verboten oder zumindest so stark reguliert werden, dass niemand durch sie Schaden erleiden kann - beim autonomen Fahren ist das Lebensgefahr, wie schon einige Vorfälle gezeigt haben. Gerade die Gesichtserkennung war ein grundsätzlicher Diskussionspunkt zwischen Parlament und Kommission und die Vertreter des Staates haben sich wieder einmal durchgesetzt. Biometrische Gesichtserkennung soll in "Gefahrenlagen" unter richterlicher Aufsicht möglich sein.

Welche regulatorische "Steuerung" dann künftig verhindern soll, dass KI-Algorithmen unsere Zwangs-ePA (elektronische Patientenakte) aufhübscht steht völlig in den Sternen. Wie man regulieren will, dass nicht eine KI, sondern ein Mensch künftig die Bewerbungsunterlagen von nicht-weißen Männern und Frauen gleich aussortiert, wird auch noch interessant. Fazit bleibt, dass dieser erste Aufschlag der EU eigentlich kein Problem löst, das wir uns mit dem Einsatz von KI geschaffen haben.

Wie wenig praxistauglich die Verordnung ist, zeigt ja schon der "Skandal" um das Foto der britischen Prinzessin Kate, die ihr Foto wohl mit den (wenigen und harmlosen) KI-Tools von Adobe Photoshop bearbeiten ließ - und es nicht so gekennzeichnet hat. Dazu müsste ja jedes Programm sagen, dass es KI-Software enthält und das würde wieder erfordern, dass der Begriff KI erst einmal eindeutig definiert wird.

Statt die Fehler der Verordnung im Kleinen zu suchen, sind die grundrechtlichen Kritiken ernst zu nehmen. Dazu zitieren wir Marius Tudor, ehemaliger Berater des Europäischen Parlaments, der feststellt: "Dieses Gesetz schränkt den Zugang zum Arbeitsplatz und/oder zu privaten/öffentlichen Räumen durch die Verwendung der Fernidentifizierung von Bürgern ein. Ein Gesetz, das nicht in die europäische Gesetzgebung gehört, zumindest nicht in dieser Form, und das dennoch umgesetzt wird und mehr Schaden als Nutzen anrichtet."

Seine Kritik an der Verordnung über künstliche Intelligenz sieht einen Verstoß gegen Artikel 16 des Vertrags über die Arbeitsweise der Europäischen Union,

  • in dem das Recht auf Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten verankert ist,
  • sowie gegen das Grundrecht auf Schutz personenbezogener Daten, das insbesondere durch die Verordnungen (EU) 2016/679 und (EU) 2018/1725
  • sowie die Richtlinien 2016/680 und 2002/58/EG geschützt wird.
  • Dieses Gesetz verstößt gegen die Richtlinie 2000/43/EG des Rates zur Anwendung des Gleichbehandlungsgrundsatzes ohne Unterschied der Rasse oder der ethnischen Herkunft und
  • gegen die Richtlinie 2000/78/EG des Rates zur Festlegung eines allgemeinen Rahmens für die Verwirklichung der Gleichbehandlung in Beschäftigung und Beruf.
  • Ferner verstößt das Gesetz gegen den Vertrag über die Arbeitsweise der Europäischen Union, der Diskriminierungen aus Gründen der Staatsangehörigkeit, der ethnischen Herkunft, des Geschlechts, des Alters, der sozialen Stellung oder der körperlichen Merkmale verbietet,
    • sowie gegen die Grundprinzipien der Freiheit und Gleichheit, auf denen die EU beruht.

Nun muss die jetzt beschlossene Verordnung erst einmal in den Mitgliedsstaaten ankommen und dabei ist noch mit weiteren Verwässerungen zu rechnen. Wir werden das Thema weiter verfolgen ...

Mehr dazu bei https://www.ardmediathek.de/video/wirtschaft-vor-acht/wirtschaft-vor-acht/das-erste/Y3JpZDovL2Rhc2Vyc3RlLmRlL3dpcnRzY2hhZnQgdm9yIGFjaHQvMjAyNC0wMy0xNF8xOS01NS1NRVo
und https://uncutnews.ch/das-europaeische-parlament-fuehrt-die-totale-kontrolle-der-buerger-durch-die-hintertuer-ein-biometrische-diktatur-nach-chinesischem-vorbild/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3zw
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8714-20240315-erste-ki-verordnung-der-welt.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8714-20240315-erste-ki-verordnung-der-welt.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Gesichtserkennung #Fernerkennung #autonomeKfz #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Bewerbungen #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Diagnosen

deutschlandfunk@squeet.me

Rechtsextremismus und Social Media: Wie Algorithmen manipulieren

Social Media - Wie Algorithmen Rechtsextremismus begünstigen

Auf TikTok erreichen rechtsextreme Inhalte rasch ein junges, empfängliches Publikum. Die Schulen sollten Medienkompetenz stärken, sagt Forscherin Franke.#Rechtsextremismus #SOCIALMEDIA #SCHULE #Medienkompetenz #TIKTOK #Rechtsextrem #INTERNET #Medien #Medienbildung #Algorithmen
Rechtsextremismus und Social Media: Wie Algorithmen manipulieren

spektrum@anonsys.net

Auf welche sozialen Rahmenbedingungen trifft die künstliche Intelligenz? Welche Chancen bietet sie? Fundierte Antworten auf solche Fragen gibt Helga Nowotnys Buch. Eine Rezension

Die Auswirkungen der künstlichen Intelligenz beschränken sich nicht auf technische Neuerungen. Wie krempelt sie unsere Gesellschaft um? Eine Rezension (Rezension zu Die KI sei mit euch von Helga Nowotny)#KI #KünstlicheIntelligenz #Politik #ChatGPT #Algorithmen #Überwachung #Digitalisierung #Freiheit #Zukunft #Agency #Fortschritt #AIAct #Kontrolle #ITTech #Kultur #PsychologieHirnforschung
»Die KI sei mit euch«: Künstliche Intelligenz verändert alles

aktionfsa@diasp.eu

06.02.2024 Selbstherrliche KI

KI "wählt" Kinderschänder-Foto

Der irische Radiomoderator Dave Fanning fand sein Foto in einem Artikel des Hongkonger Verlags BNN. Eine KI Software von Microsoft soll sein Foto "zufällig" ausgewählt haben. Weder der Verlag noch Microsoft antworten auf Fragen zu dem Vorgang. Herr Fanning will nun klagen.

Allerdings gestaltet sich die Klage als schwierig, weil die beim High Court in Dublin abgegeben Klage nun in Hongkong und den USA zugestellt werden muss. Dazu muss der High Court die Zustellung der Klage im Ausland, bzw. außerhalb der EU genehmigen.

Heise.de berichtet über ähnlich selbstherrliche Entscheidungen von "künstlichen Intelligenzen". Demnach versagt Microsoft wiederholt bei der versprochenen menschlichen Aufsicht über seine Algorithmen.

Mehr dazu bei https://www.heise.de/news/KI-verleumdet-Unschuldigen-als-Kinderschaender-Klage-gegen-Microsoft-9598270.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3yQ
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8674-20240206-selbstherrliche-ki.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8674-20240206-selbstherrliche-ki.html
Tags: #Journalist #KI #AI #Big5 #Microsoft #Algorithmen #Missbrauch #Kinderschänder #Fotos #Auswahl #Copy #Paste #Entscheidungsgewalt #Mensch #Maschine #Irland #Honkong #Cyberwar #Hacking

spektrum@anonsys.net

Katharina Zweig betrachtet in ihrem informativen und anregenden Buch die Entscheidungsfindung bei künstlichen Intelligenzen und fragt nach ihrer Verantwortung. Eine Rezension

Wie entscheidet eine künstliche Intelligenz? Und was bedeutet das für ihren Einsatz? Dieses anregende Buch gewährt wertvolle Einblicke. Eine Rezension (Rezension zu Die KI war's! von Katharina Zweig)#künstlicheintelligenz #ki #chtagpt #bot #chatbot #artificialintelligence #AI #software #algorithmen #internet #sozioformatik #daten #bigdata #digitalisierung #demokratie #sozialemedien #gesichtserkennung #fingerabdruck #ITTech #Kultur #PsychologieHirnforschung
»Die KI war's!«: Wenn die künstliche Intelligenz den Kredit verweigert

aktionfsa@diasp.eu

###09.12.2023 Rahmen für KI-Act steht
Grundzüge können noch aufgeweicht werden

Nach 38 Stunden haben sich die Unterhändler von Europaparlament und EU-Staaten nun auf Grundzüge des "AI Act" geeinigt. Würde es in diesem Tempo weitergehen, dann hätte die EU als erste auf der Welt eine Regelung zur künstlichen Intelligenz vorgelegt. Die ebenfalls laufende Diskussion in den USA steckt noch in den Anfängen und ist - wie üblich - viel offener gegenüber den Wünschen der entsprechenden Lobby.

Positiv und negativ

Den vorliegenden Rahmen zu bewerten ist noch nicht endgültig möglich, weil in den weiteren Verhandlungen noch viele erreichte Punkte durch Formulierungen aufgeweicht werden können. Relativ fest stehen bislang folgende Punkte

  • Die Entwickler müssen die Qualität der für die Entwicklung der Algorithmen verwendeten Daten gewährleisten und sicherstellen.
  • Die KI-Entwicklung darf keine Urheberrechte verletzen.
  • Durch Künstliche Intelligenz geschaffene Texte, Bilder und Töne müssen entsprechend markiert werden.
  • Die Regeln für biometrische Gesichtserkennung durch KI, die eigentlich völlig verboten werden sollte, kann zu Zwecken der nationalen Sicherheit eingesetzt werden. Auch wenn sich dies auf "konkrete Bedrohungen" beschränkt wissen, wir, dass solche Regelungen künftig verallgemeintert werden können.
  • Für "risikoreiche" Anwendungen, etwa bei kritischer Infrastruktur, Sicherheitsbehörden und öffentlicher Personalverwaltung sollen "verschärfte Regelungen" gelten.

Vor 3 Wochen berichteten wir über die Vorbehalte von Deutschland und Frankreich gegen die Vorschläge zum KI-Act. Beide Länder hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basis-Technologie an sich. In den sogenannten Basismodelle, wie z.B. Chat-GPT, steckt die Wissensbasis und diese möchten die beiden Länder nicht aus Europa vertreiben. Auch Digital- und Verkehrsminister Volker Wissing appelliert, wie tagesschau.de schreibt, an die EU, international abgestimmt vorzugehen und "keinen Alleingang" zu wagen. So gibt es Befürchtungen, Start-Up-Unternehmen wie Aleph Alpha aus Deutschland und Mistral AI in Frankreich könnten in ihrer Entwicklung behindert werden.

Bei diesen Randgefechten verschwinden oft die für die Privatsphäre des Einzelnen wichtigen Punkte, wie die nun doch erlaubte Nutzung biometrischer Gesichtserkennung oder die Verwendung von KI bei Ermittlungen in Sicherheitsbehörden. Wir werden die Diskussion weiter beobachten ...

Mehr dazu bei https://www.spiegel.de/netzwelt/netzpolitik/ai-act-eu-erzielt-einigung-auf-regeln-fuer-kuenstliche-intelligenz-a-54d0ff03-d275-4c3a-b1b9-c491a0a258cd
und https://www.tagesschau.de/ausland/europa/eu-kuenstliche-intelligenz-regulierung-100.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xL
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8613-20231209-rahmen-fuer-ki-act-steht.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8613-20231209-rahmen-fuer-ki-act-steht.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Rasterfahndung

aktionfsa@diasp.eu

18.11.2023 KI-Act droht zu scheitern

Frankreich und Deutschland gegen strikte Regulierung

Eigentlich war man sich einig, dass die Regulierung künstlicher Intelligenz (KI) durch eine EU Verordnung (KI-Act) noch vor den Europawahlen im nächsten Jahr verabschiedet werden sollte. Nun stecken die Vorgespräche, die sogeannten Trilog Verhandlungen zwischen Rat, Parlament und Komission in einer Sackgasse.

Heise.de schreibt: Hauptstreitpunkt ist die Regulierung von "General Purpose AI Models" – also großen Sprachmodellen wie Llama 2 oder GPT-4, weil sich Frankreich und Deutschland dagegen ausprechen. Das ursprüngliche Ziel war

  • hochgefährliche Anwendungen, wie zum Beispiel Echtzeit-Biometrie, werden komplett verboten,
  • Hochrisiko-Anwendungen, wo die KI in medizinische Bereiche, in die Justiz oder Strafverfolgung eingreifen, werden streng reguliert,
  • andere nur ab und an kontrolliert.

Nun sprechen sich Frankreich und Deutschland dagegen aus die besonders "mächtigen" Sprachmodelle mit Audits durch eine noch zu schaffende EU-Behörde zu überwachen und zu regulieren. Die Befürchtung ist, dass solche Regulierungen innovative Start-ups abwürgen könnten. Dabei ging es bisher eher um die "Großen" - und bei den Großen ist eher zu befürchten, dass die "zu schaffende neue Behörde" von der Macht dieser Großen einfach eingewickelt und die Kontrolle zu einem bloßen Schaulaufen wird.

Wenn es nun bis zur Europawahl nichts wird, sollte man die Zeit nutzen, um die Risiken genauer zu spezifizieren. Dazu gehören neben Datenschutz, rechtlichen, Haftungs- und Copyright Fragen auch die unerträglichen Arbeitsbedingungen der Menschen die die KI trainieren, der immense Stromverbrauch der KI. Fragen der Diskriminierung von Frauen und Menschen, die nicht weiß sind, sind bekannt aber noch längst ist nicht klar, wie sie gelöst werden können.

Mehr dazu bei https://www.heise.de/hintergrund/AI-Act-KI-Gesetz-der-EU-droht-zu-kippen-9531914.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3xn
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8590-20231118-ki-act-droht-zu-scheitern.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8590-20231118-ki-act-droht-zu-scheitern.html
Tags: #KIAct #EURat #Trilog #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Diskiminierung #Überwachung #DataMining #Rasterfahndung

aktionfsa@diasp.eu

25.10.2023 EU KI-Verordnung noch mangelhaft

Was sollte noch in die KI Verordnung?

Welche Gefahren durch einen leichtsinigen Einsatz von künstlicher Intelligenz (KI) geschehen können, haben wir bereits mehrfach beschrieben. Fatale Folgen fehlerhafter Algorithmen finden sich z.B.in diesem Artikel. Mit einem davon beginnt auch der verlinkte Artikel von netzpolitik.org:

Weil die niederländische Steuerbehörde einen fehlerbehafteten Algorithmus eingesetzt hatte, verlangte sie von mehr als 20.000 Familien zu Unrecht hohe Summen an Kindergeld zurück. Der Fehler stürzte unzählige Familien in Armut, mehr als 1.000 Kinder landeten in Pflegestellen.

Damit so etwas o.ä. nicht passiert wird seit einiger Zeit bei der EU über eine KI Verordnung diskutiert. Nun ist diese Verordnung fast fertig, aber wichtige Stellschrauben fehlen noch immer. Die Forderung von Datenschützern und Netzgemeinde sind u.a.:

  • Gesichtserkennung und andere inakzeptable Technologien verbieten,
  • Predictive Policing, Emotionserkennungs-KI und Systeme zur biometrischen Kategorisierung dürfen nicht gegen Menschen eingesetzt werden,
  • Transparenz: ein KI-Einsatz durch Behörden darf kein Geheimnis sein,
  • kein Blankoschein für Missbrauch unter dem Deckmantel „Nationale Sicherheit”,
  • keine Schlupflöcher in der Definition von „Hochrisiko“-KI,
  • regelmäßige Überprüfung im Betrieb: Systeme zeigen mitunter ihre Risiken erst, wenn sie sich in der konkreten Anwendung befinden.

Mit Stand heute will der Rat der EU ausgerechnet Sicherheits- und Migrationsbehörden von einer Transparenzpflicht befreien und für die „Nationale Sicherheit” wird ein Dechmantel über die geplanten Anwendungen gelegt. Das darf nicht passieren. Deshalb muss das EU Parlament noch einige Arbeit in den bis jetzt vorliegenden Entwurf der KI Verordnung investieren und den Ratsentwurf nicht einfach durchwinken.

Mehr dazu bei https://netzpolitik.org/2023/ki-verordnung-auf-der-zielgeraden-welche-schlupfloecher-die-eu-jetzt-noch-schliessen-muss/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3wW
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8565-20231025-eu-ki-verordnung-noch-mangelhaft.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8565-20231025-eu-ki-verordnung-noch-mangelhaft.html
Tags: #KIVerordnung #EURat #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Smartphone #Handy #Überwachung #DataMining #Rasterfahndung #Sozialbetrug

aktionfsa@diasp.eu

USA wollen angeblich EU DSGVO achten

Danke Max Schrems!

Schon vergessen? Nein, Max Schrems hat ja der EU der Reihe nach ein "Datenschutzabkommen" (Safe Harbor, Privacy Shield) nach dem anderen mit den USA wegprozessiert, und zwar nicht zuletzt weil wir seit unserem Ehrenmitglied Edward Snowden wissen, dass die Amis da hemmungslos in den Datentopf greifen, wenn sie können.

180° Wende - USA geben sich geläutert

Man glaubt es kaum - und sollte es auch nicht glauben - wenn der NSA Präsident öffentlich äußert:

Bei der bislang besonders eingreifenden Fernmeldeaufklärung ("Sigint") müsse berücksichtigt werden, "dass alle Personen mit Würde und Respekt behandelt werden sollten", ordnet NSA-Präsident Paul Nakasone in einer jetzt bekannt gewordenen Richtlinie zur Datensammlung vom 29. Juni an.

Dies habe "unabhängig von ihrer Nationalität oder ihrem Wohnort" zu gelten – also auch beim Ausspionieren von Gegnern wie dem russischen Präsidenten Wladimir Putin. Alle Menschen weltweit hätten "berechtigte Datenschutzinteressen", die zu wahren seien. Generell dürfen erhobene Daten über Ausländer nur noch gespeichert werden, wenn eine solche Befugnis auch bei US-Bürgern besteht, geht aus der Vorschrift hervor.

Der einzige Grund für dieses Kreide fressen ist Bidens Executive Order 14086, die Durchführungsverordnung 14086 vom Oktober 2022. In dieser beruft sich Biden auf das EU-U.S. Data Privacy Framework, den Nachfolger von Privacy Shield und stellt fest:

The Department of Justice welcomes the European Commission’s adoption on July 10, 2023 of an adequacy decision for the United States as part of the EU-U.S. Data Privacy Framework, to which President Biden and European Commission President von der Leyen agreed in March of 2022.
... eigentlich eine Null-Aussage außer, dass man sich einig sei ;-)

Nun muss Max Schrems - oder auch jede/r beliebige andere EU-BürgerIn - wieder ran und vor Gericht beweisen, dass den Worten keine Taten gefolgt sind und der Datenklau aus Europa wie vorher weiter geht.

Mehr dazu bei https://www.heise.de/news/Ueberwachung-NSA-soll-weltweit-mit-Wuerde-und-Respekt-spionieren-9286076.html
und https://blog.fefe.de/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3vU
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8505-20230828-usa-wollen-angeblich-eu-dsgvo-achten.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8505-20230828-usa-wollen-angeblich-eu-dsgvo-achten.html
Tags: #NSA #USA #EU #Big5 #Verbraucherdatenschutz #Datenschutzabkommen #SafeHarbor #PrivacyShield #DataPrivacyFramework #Datensicherheit #Datenklau #Algorithmen #Cookies #Smartphone #Handy #sensibleDaten #Diskriminierung #Ungleichbehandlung

aktionfsa@diasp.eu

27.08.2023 Der Digital Services Act ist nun Gesetz

Unsere Privatsphäre nun gesichert?

Gestern haben wir uns noch aufgeregt, dass Datenhändler fast alles über uns wissen, dabei gilt seit einigen Tagen der Digital Sercives Act (DSA). Und manche bezeichnen den DSA auch schon als das "Grundgesetz des Internets".

Was steht da drin?

  • Dark Pattern werden verboten. Unsichtbare Cookie-Banner und das Hervorheben oder Verstecken bei Auswahlen, z.B. bei der Zustimmung zur Nutzung unserer Daten sind nicht mehr erlaubt.
  • Besser wäre gewesen gar keine Cookie-Banner zu erlauben!
  • Ausschluss von sensiblen Daten bei Tracking-Werbung: Daten wie sexuelle Orientierung, politische Anschauungen oder Religionszugehörigkeit dürfen nicht mehr für Werbezwecke verarbeitet werden.
  • Ein vollständiges Verbot des Tracking hat es nicht in die Gesetzgebung geschafft.
  • Transparenz über die Reihenfolge von Feeds: Kein Nutzer weiß, welcher Algorithmus bestimmt, was man angezeigt bekommt. Nun soll man mindestens mehr Kontrolle über den eigenen Verlauf bekommen. So soll man zum Beispiel wählen, Posts in einer chronologischen Reihenfolge, oder auf Grundlage von selbst festgelegten Interessen angezeigt zu bekommen.
  • Auf die Realisierung dieser Anforderung muss man gespannt sein, denn sie würde die Geschäftsmodelle der Big5 schwer schädigen.
  • Plattformen müssen ein klareres „Melde- und Aktions“-Verfahren vorhalten, bei dem die nutzenden Personen die Möglichkeit haben, illegale Inhalte online zu melden; Meldungen von nutzenden Personen müssen von den Plattformen zügig bearbeitet werden.
  • Wie soll man von außen prüfen, ob dieses Verfahren "diskriminierungsfrei" abläuft oder ob es nicht doch durch die geschäftlichen oder politischen Interessen der Unternehmen gesteuert ist?
  • Inter-Operabilität bei Messenger-Diensten: TikToks auf Insta schauen oder Tweets über Mastodon lesen? Es wird Jahren dauern, bis so etwas möglich wird.
  • Transparenz und Informationsfreiheit werden damit gestärkt. Ob es wirklich ein Fortschritt ist, den Unsinn von TikTok oder Instagram auf seriösen offenen Plattformen sehen zu können, bezweifeln zumindest diejenigen, die jetzt schon bewußt dort sind, weil sie der Verblödung aus dem Weg gegangen sind.
  • Nutzer digitaler Dienste werden das Recht haben, Entschädigung für Schäden oder Verluste zu verlangen, die sie aufgrund von Verstößen durch Plattformen erlitten haben.
  • Sehr große Online-Plattformen und Suchmaschinen (mit mehr als 45 Millionen Nutzern) können mit Geldbußen von bis zu 6 % ihres weltweiten Umsatzes belegt werden.
  • Sehr große Online-Plattformen müssen systemische Risiken bewerten und abmildern und sich jedes Jahr unabhängigen Prüfungen unterziehen.
  • _Mal sehen, wer da und wie prüft ...:
  • Wenn eine Krise eintritt, z. B. eine Bedrohung der öffentlichen Sicherheit oder der Gesundheit, kann die Kommission von sehr großen Plattformen verlangen, dringende Bedrohungen auf ihren Plattformen zu begrenzen. Diese besonderen Maßnahmen sind auf drei Monate begrenzt.
  • Also, was soll das heißen und wer bestimmt was eine Bedrohung ist? Wenn z.B. das Geld für Waffenlieferungen alle ist, dann darf nicht mehr über Alternativen, wie Frieden, Kindergrundsicherung oder die Rente diskutiert werden?

Auf die Umsetzung und Durchsetzung des DSA können wir gespannt sein. Um die Vorgaben zu kontrollieren, braucht es Behörden mit entsprechenden Ressourcen, die es mit denen der Big5 aufnehmen können. So haben Bürgerrechtsorganisationen schon Kritik angemeldet.

  • Die Bürgerrechtsbewegung European Digital Rights meldete in einer Pressemeldung substanzielle Bedenken an und beurteilte den Vorschlag als Gefahr für die Meinungsfreiheit und Rechtsstaatlichkeit.
  • Abgeordnete der Piratenpartei bemängelten, dass sich mit dem Gesetzesvorschlag Industrieinteressen gegenüber digitalen Bürgerrechten durchgesetzt hätten.
  • ...

Wir schließen uns dem Fazit auf Wikipedia an: Die sozialen Medien die zunächst als Demokratieverstärker gefeiert wurden, werden immer mehr als Gefahr für die Demokratie wahrgenommen. Das gilt zumindest solange diese Medien in den Händen einiger weniger Unternehmen liegen und öffentlicher Kontrolle entzogen werden.

Mehr dazu bei https://www.amnesty.de/informieren/blog/privatsphaere-digital-services-act-aenderungen-fuer-nutzer-innen
und https://de.wikipedia.org/wiki/Gesetz_%C3%BCber_digitale_Dienste
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3vT
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8504-20230827-der-digital-services-act-ist-nun-gesetz.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8504-20230827-der-digital-services-act-ist-nun-gesetz.html
Tags: #DigitalServicesAct #DSA #EU #Big5 #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Zustimmung #Ergonomie #Datenklau #Beschwerden #Hass #Algorithmen #Cookies #Smartphone #Handy #sensibleDaten #Gesundheit #Religion #politischeAnsichten #Soziales #Gender #Diskriminierung #Ungleichbehandlung

aktionfsa@diasp.eu

14.07.2023 Fatale Folgen fehlerhafter Algorithmen

Krasses Scheitern von "künstlicher Intelligenz"

Kurz vor dem Abschluss der EU-Verordnung zum Umgang mit Künstlicher Intelligenz vor 3 Wochen im Plenum des EU-Parlaments wurden auch eine Reihe von Beispielen bekant, in denen der Einsatz von Algorithmen zur "Steuerung des Gemeinwesens" fatale Folgen für die Betroffenen entwickelt hat.

Bei Heise.de gibt es die ausführlichen Geschichten dazu. In der Kurzfassung:

  • Eine holländische Gemeinde möchte zur Argumentation für eine Umgehungsstraße analysieren, welchen reinen Durchgangsverkehr es dort gibt. Das (ungewollte) Ergebnis sind die Smartphones - und damit Menschen - die im Ort das Zentrum einer religösen Minderheit in den Niederlanden besuchen.
  • Ein anderer Algorithmus soll die Datensätze aller Bezieher von Sozialzuschüssen systematisch überprüfen. Mehr als 10.000 junge Elternpaare werden des Sozialbetrugs bezichtigt, die Zuschüsse gestrichen und Rückzahlungen gefordert. Die Betroffenen standen vor großen finanziellen Problemen. Trotzdem wurde das Programm fortgeführt bis sich herausstellte, dass der Algorithmus den Faktor der "Doppelstaatsbürgerschaft" viel zu hoch bewertet hatte. Die weitaus meisten Fälle stellten sich als falsche Treffer (False Positives) heraus.
  • In Italien wollte man den notorischen Lehrermangel bekämpfen, in dem man dem bisherigen persönlichen Stellenbesetzungsverfahren einen Algorithmus vorschaltete. Die Nebenwirkungen waren verheerend, denn vielen erfahrenen Pädagogen wurden nur Aushilfslehrerstellen angeboten, oder sie wurden sogar plötzlich arbeitslos, weil der Algrithmus abgelehnte Bewerber automatsich als schlecht(er) qualifiziert einstufte.

Verteidiger der Digitalisierung werden argumentieren, dass in allen 3 Fällen die Algorithmen schlecht programmiert waren oder in einem "unpassenden" Kontext angewendet wurden. Also waren in allen Fällen auch Menschen die Schuldigen für die aufgetretenen Fehler.

Das mag stimmen, aber solange uns die "alleinseeligmachende Super-KI" nicht regiert, werden (glücklicherweise) Menschen die Planung und den Einsatz vornehmen. Wie heise.de feststellt, müssen diese mindestens besser ausgebildet werden: "Um fehlerhafte Algorithmen zu identifizieren, braucht es aber spezielle Skills und die sind zurzeit nicht einmal bei Datenschutzbehörden vorhanden."

Es reicht nicht, ein kleines Problem zu analysieren und dafür eine Lösung zu programmieren. In unserer Gesellschaft hängt alles von vielem ab. Schauen wir mal, welche Probleme die KI-Verordnung löst und welche sie vergrößert ...

Mehr dazu bei https://www.heise.de/news/Kuenstliche-Intelligenz-Drei-Beispiele-fuer-das-Scheitern-von-Algorithmen-9205911.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3v7
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8459-20230714-fatale-folgen-fehlerhafter-algorithmen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8459-20230714-fatale-folgen-fehlerhafter-algorithmen.html
Tags: #Algorithmen #künstlicheIntelligenz #KI #AI #Transparenz #Informationsfreiheit #Anonymisierung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #FalsePositives #Seiteneffekte #Nebenwirkungen #Smartphone #Handy #Überwachung #DataMining #Rasterfahndung #Lehrerauswahl #Bewerber #Sozialbetrug
Erstellt: 2023-07-14 07:28:31