#fehlerhaft

aktionfsa@diasp.eu

FifF im Einsatz für den Frieden

Die Welt ist vielfältig und komplex

Seit Juni 1984 gibt es den Verein Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung, kurz FIfF. Seine Mitglieder versuchen über die tiefgreifende Verflechtung von Informatik und Militär aufzuklären und sich für eine Abrüstung der Informatik in militärischen Anwendungen zu engagieren. Anlässlich dieses Jubiläums hat Constanze Kurz mit Hans-Jörg Kreowski und Rainer Rehak darüber gesprochen, welche Rolle die Informatik im Bereich des Militärs einnimmt.

Auf die vielen lesenswerten Aspekte dieses Gesprächs können wir nicht im einzelnen eingehen. Wir wollen uns auch anlässlich der aktuellen Ausgabe der Zeitschrift des FIfF auf die kritische Einordnung des aktuellen KI-Hypes konzentrieren und steigen konkret ein.

Rainer Rehak sagt im Interview: Nehmen wir einmal an, das KI-System entscheidet darüber, wer berechtigt ist,
- Sozialleistungen zu beziehen,
- welche Medikamente ein Mensch braucht oder auch
- welches militärisches Ziel angegriffen werden soll.

Systeme können immer nur kontextabhängige Antworten geben. Menschen und die ganze Welt sind aber viel zu komplex, als dass uns ein System etwas über sie erzählen könnte.

Und damit verweist er auf die Anlässe, die auch zur Gründung des FifF geführt haben. Vor 40 Jahren ging es um den NATO-Doppelbeschluss und die Aufstellung von rund 200 US-Atomsprengköpfen sowie mehreren hundert Marschflugkörpern in Deutschland. Wären sie zum Einsatz gekommen, wäre von Mitteleuropa und Deutschland nichts mehr übrig. Allein die Reduzierung der Vorwarnzeiten von 20-30 Minuten bei Interkontinentalraketen auf 5 Minuten für diese Mittelstreckenraketen wäre auch oder sogar gerade bei Computer-unterstützter Entscheidung ein ungeheures Risiko gewesen.

Prof. Hans-Jörg Kreowski weist dabei auf die unzuverlässig programmierten Frühwarnsysteme hin. Das Risiko dieser Systeme bestand darin, dass sie fälschlicherweise Bedrohungen meldeten und damit leicht zu falschen Entscheidungen hätten führen können.

Ein Beispiel dafür ist der Fall Stanislaw Petrow: Am 26. September 1983, während des Kalten Krieges, meldete das Frühwarnradar der Sowjetunion den Start einer Interkontinentalrakete mit vier weiteren Raketen von Stützpunkten in den Vereinigten Staaten aus. Stanislaw Petrow, ein Offizier der sowjetischen Luftverteidigungsstreitkräfte, der in der Kommandozentrale des Frühwarnsystems Dienst tat, hielt diese Warnungen für Fehlalarme - und rettete damit wahrscheinlich die Menschheit.

Unbemenschte Waffen

Inzwischen sind Computer nicht nur Anzeigeinstrumente, sondern führen die militärischen Waffen selbstständig. Neben den laufenden Drohnenkriegen (Armenien-Aserbaidschan und Russland-Ukraine) ist dafür ein Beispiel die Entwicklung des „Future Combat Air System“ (FCAS) von Frankreich (FCAS stoppen! ). Ein neues Kampfflugzeug soll entwickelt werden, das dann in Drohnenschwärmen in der ganzen Welt Lufthoheit für Deutschland und Frankreich erzeugen soll. Dafür wären auch allein für die Entwicklung wieder mehr als 100 Milliarden Euro nötig und damit fängt die Produktion ja erst an.

FCAS soll von einer KI-Plattform aus geplant, gesteuert, organisiert werden. Wir können erst einmal davon ausgehen, dass bis jetzt davon noch fast nichts funktioniert. Aber selbst wenn "etwas" davon läuft, dann gilt auch für dieses System das oben Gesagte und grundsätzlich die Regel, dass jede 1000-ste Programmzeile fehlerhaft ist. Welcher Mensch würde sein Leben einem solchen System anvertrauen oder gar das Überleben eines ganzen Landes.
KI als Müllerzeuger

Hinzu kommt eine Erfahrung, die man beim Spielen mit den gängigen KI-Werkzeugen gewinnt. Die KI sammelt (beliebige, auch fehlerhafte) Daten aus dem Internet und interpretiert diese. Die Ergebnisse werden deshalb fehlerhaft sein und gelangen im Laufe der Zeit wieder ins Internet. Das (menschliche) Wissen im Internet wird also mit der Zeit fehlerhafter und in der Summe schlechter. Wollen wir so etwas?

KI-Modelle, die auf fehlerbehafteten Datensätzen trainiert wurden, geben (auch) falsche Antworten. Garbage in, garbage out.

Mehr dazu bei https://netzpolitik.org/2024/40-jahre-fiff-gegen-die-unheilvolle-verflechtung-von-informatik-und-militaer-2/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3AX
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8798-20240604-fiff-im-einsatz-fuer-den-frieden.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8798-20240604-fiff-im-einsatz-fuer-den-frieden.html
Tags: #FifF #Jubiläum #Interview #Algorithmen #AI #KI #fehlerhaft #FalsePositives #NATO #Doppelbeschluss #FCAS #Drohnenkriege #Petrow

aktionfsa@diasp.eu

03.06.2024 Kontrolle durch Algorithmen

Nippel oder Ni -- cht?

Die Nippel-Phobie - diskriminierenderweise gegenüber der weiblichen Brust - kennt man aus den USA schon lange. Nun schwappt sie mit den diversen a-sozialen Netzwerken auch nach Europa. Und die Behörden der EU versuchen möglichst viele Bereiche des Internets hinter Ausweisschranken zu stellen.

Dass auch das nur schiefgehen kann, zeigen die "Bemühungen" der genannten a-sozialen Netzwerke. Sebastian Meineck zählt auf Netzpolitik.org deren vergebliche Versuche in seinem Artikel "Die nackte Panik" auf und nennt konkrete (und lesenswerte!) Beispiele

  • auf Instagram,
  • mit Google Safe Search,
  • mit YouTubes eingeschränktem Modus,
  • bei DALL-E,
  • bei Twitch,
  • selbst mit JusProg.

JusProg, also Jugendschutzprogramm.de, ist eine Anwendung des Justizministeriums und soll Eltern die Sicherheit geben, dass ihre Kinder nicht "auf die falschen Seiten" im Internet kommen. Auch hier - wo wir Profitinteressen privater Internetkonzerne ausschließen können - klappt das nicht. Der Autor hat mit Kolleg*innen von BR Data recherchiert und festgestellt, dass insgesamt 74 Websites zu besonders sensiblen Themen, die eigentlich für Minderjährige Aufklärung liefern sollten von JusProg gesperrt wurden. Immerhin konnte er seine Ergebnisse dem Ministerium zukommen lassen und man hat auf seine Recherche reagiert. Bereits kurze Zeit nach der Kontaktaufnahme war ein Großteil der betroffenen Seiten nicht mehr erst „ab 18 Jahren“.

Ganz anders ist die Situation bei den anderen Genannten. Ihre Zensurmaßnahmen sind willkürlich, bei Beschwerden wird man schnell mit Account-Sperrung bedroht. Ebenso, wie eine Logik der Zensur nicht erkennbar ist, so leicht läßt sie sich oft umgehen. Das ist auch nicht verwunderlich, denn die Maßnahmen werden - wie alle unsere "Ergebnisse" im Internet durch Algorithmen gesteuert. Diese sind in der Mehrzahl unverständlich aber auch manchmal leicht auszutricksen.

So reicht es oft Worte wie Sex duch Seggs oder S-x zu ersetzen. Für diesen Artikel heißt das natürlich, dass er unter eine Altersbeschränkung fällt, weil alle Alternativen drin stehen ...

Was wären die Alternativen?

Dazu zuerst die Frage: Woher kommt dieser neue Prüdismus? Die Begriffe Nacktheit und Sexualität werden pauschal mit Gefahr verknüpft ohne zu schauen in welchem Zusammenhang sie auftreten. Nach dieser Erkenntnis kann man alle Automatismen nur noch in die Tonne treten, denn selbst mit "KI" gelingt es nicht die ungeheure Vielfalt des menschlichen Lebens richtig zu beurteilen.

Was wir bekommen, sind in jedem Fall nur technische Scheinlösungen. Sebastian Meineck stellt fest:

Weder Instagram noch Google oder YouTube noch JusProg wollen gerne an die große Glocke hängen, inwiefern ihr Overblocking im Namen des Jugendschutzes systematisch Grundrechte einschränkt. ...
Blockaden und Filter im Internet sind kein Übermaß an Fürsorge, sondern ein Mangel an Fürsorge. Algorithmen, KIs und Filter sind billige, fehlerhafte, technische Scheinlösungen, die vielleicht Aufsichtsbehörden und Gesetzgeber zufrieden stimmen.

Und seinem Fazit können wir uns nur voll anschließen:

Ich fordere nicht, dass man sich weniger kümmert oder gar nichts mehr täte, um Minderjährigen im Netz Schutz zu geben. Im Gegenteil, ich fordere, dass man sich mehr kümmert. Blockaden und Filter im Internet sind kein Übermaß an Fürsorge, sondern ein Mangel an Fürsorge.

Und für uns alle - egal ob unter oder über 18 - sind die Maßnahmen eine unzulässige Zensur und ein Eingriff in unsere Grundrechte.

Mehr dazu bei https://netzpolitik.org/2024/die-nackte-panik-eine-welle-von-overblocking-rollt-heran/
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3AW
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8797-20240603-kontrolle-durch-algorithmen.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8797-20240603-kontrolle-durch-algorithmen.html
Tags: #Jugendschutz #Altersbeschränkung #Algorithmen #AI #KI #fehlerhaft #FalsePositives #Nacktheit #prüde #USA #Zensur #Transparenz #Informationsfreiheit #Anonymisierung #Meinungsmonopol #Meinungsfreiheit #Pressefreiheit #Internetsperren #Netzneutralität

aktionfsa@diasp.eu

14.02.2024 Big Brother in Bayern

Verhaltensvorhersagen möglich ...

... aber beliebig fehlerhaft. Die Folgen von "Predictive Policing" sollte man sich stets vor Augen halten, bevor man sie auf die Menschen los lässt. Es kommt zu beliebig vielen "False Positives", also falsch Verdächtigten, die dann unter großen Schwierigkeiten ihre Unschuld beweisen müssen. Wie schwer es ist zu beweisen, dass man irgend etwas nicht getan hat, das wissen die Betroffenen nur zu gut.

Bereits in Hessen und NRW wird eine Software eingesetzt, die nun auch die Polizei in Bayern zu nutzen plant. Es handelt sich um die Analysesoftware "Vera", die wiederum auf Palantirs "Gotham" beruht. Die Junge Welt berichtet nun, dass der bayerische Landesdatenschutzbeauftragte, Thomas Petri, vom Landeskriminalamt fordert, den Testbetrieb der Software der geheimdienstnahen US-Firma Palantir einzustellen.

Data Mining = Rasterahndung

Die Software schaut sich "nur" die allgemein verfügbaren Daten der Menschen an und versucht daraus Muster zu erkennen. Wer war zum Zeitpunkt X wo, wer hat mit wem telefoniert, wer hat ähnliche Ansichten in (a-) sozialen Netzwerken geäußert wie der Verdächtige Y?

Aus der Vielzahl der analysierten Daten lassen sich Persönlichkeits- sowie Bewegungsprofile von Personen erstellen und daraus wieder Schlussfolgerung auf eigentlich private Verhaltensmuster ziehen. Schon vor mehr als 20 Jahren hatte sich das BVerfG mit der Rasterfahndung von Studenten nach den Terroranschlägen vom 11. September beschäftigt und eine Analyse von Daten Unverdächtigen/Unbeteiligten ausgeschlossen. Warum jetzt - ohne äußeren Anlass - dieser erneute Vorstoß? KI machts möglich.

Noch fehlt zumindest in Bayern eine Rechtsgrundlage für solche Software, doch im Koalitionsvertrag wird sie bereits gefordert. Frage: Warum sind die Menschen so blind, solche Parteien wie CSU und Freie Wähler zu wählen?

Mehr dazu bei https://www.jungewelt.de/artikel/469076.big-brother-in-bayern-der-einsatz-solcher-software-ist-gef%C3%A4hrlich.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3yY
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8682-20240214-big-brother-in-bayern.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8682-20240214-big-brother-in-bayern.html
Tags: #DataMining #Rasterahndung #BigBrother #Bayern #PredictivePolicing #FalsePositives #fehlerhaft #Unschuldsvermutung #Verhaltensänderung #Polizei #Geheimdienste #Geodaten #Palantir #Vera #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Persönlichkeitsrecht #Privatsphäre