#texterkennung

tom_s@friendica.ambag.es

Microsofts Recall läutet das Ende des Personal Computers ein

Persönlich ist an einem PC nichts mehr, wenn Windows alle paar Sekunden Screenshots speichert. Es ist egal, ob das lokal stattfindet, meint Nico Ernst.

Redakteursalltag: Letzte Woche, also vor Microsofts neuester KI-Initiative, hatte ich doch was über Googles Pläne gelesen. Oder waren's die von OpenAI? Und auf welcher Webseite war das noch gleich? Der Browserverlauf zählt seitdem ein paar hundert andere Einträge, und ein Stichwort fällt mir auch nicht mehr ein. Google? Weiß ja auch nicht, was ich da genau auf meinem #Bildschirm hatte, ich will einfach nur genau das wieder dort sehen.

Wie praktisch, könnte man meinen, dass #Windows das bald für mich erledigt. Alle fünf Sekunden, so geht aus einem nachgeschobenen Blogbeitrag zur neuen #Funktion mit dem Namen #Recall hervor, wird ein #Screenshot des Bildschirms gespeichert, sofern sich der Inhalt ändert. Das soll dann eine KI lokal verarbeiten, also auf dem PC, nicht in der Cloud, und durchsuchbar machen, unter anderem durch #Texterkennung. Der PC wird damit zur totalitären #Überwachungsmaschine. Klingt schon weniger praktisch, eher gefährlich.

https://www.heise.de/meinung/Microsofts-Recall-laeutet-das-Ende-des-Personal-Computers-ein-9730298.html

aktionfsa@diasp.eu

02.01.2023 Verwaltungsgericht stoppt BKA

PNR für innereuropäische Flüge grundrechtswidrig

Der jahrelange Kampf gegen die Vorratsdatenspeicherung von Flugreisedaten hat einen Efolg gebracht. Das Verwaltungsgericht Wiesbaden hat entschieden, dass die anlasslose und massenhafte Verarbeitung von Flugpassagierdaten durch das BKA rechtswidrig ist.

Wie Heise.de berichtet, gab die 6. Kammer des Verwaltungsgerichts den Klagen dagegen statt. Bei innereuropäischen Flügen fehle es an einer grundrechtskonformen Rechtsgrundlage für das BKA. Vor einiger Zeit hatte der Europäische Gerichtshof (EuGH) in einem Grundsatzurteil bereits festgestellt, dass die Daten von Passagieren von Flügen innerhalb der EU nur verarbeitet werden dürfen, wenn es Anhaltspunkte für terroristische Bedrohungen auf bestimmten Flugrouten gebe. Eine solche Lage habe das BKA nicht nachweisen können.

Auch bei Flügen aus der EU in einen Drittstaat reicht es als Rechtsgrundlage nicht aus, wenn die Behörden nur wegen der Verfolgung von "normaler Kriminalität" die Informationen sämtlicher Flugpassagiere ohne konkreten Anhaltspunkt mit Fahndungsdatenbanken abgleichen.

Die Kläger, Malte Spitz, Generalsekretär der Gesellschaft für Freiheitsrechte (GFF), und der frühere EU-Beamte Emilio De Capitani feierten den Urteisspruch als "Erfolg gegen Massenüberwachung". Noch steht nicht fest, ob das BKA gegen das Urteil in Berufung gehen wird.

Behalten wir im Gedächtnis, dass das BKA 2019 rund 105 Millionen Passagierdatensätze "verarbeitet" hat. Die Trefferquote für potenzielle Gefährder lag 2019 bei 0,082 Promille.(Siehe dazu auch https://www.aktion-freiheitstattangst.org/de/articles/7357-20200812-vorratsdatenspeicherung-der-flugreisenden-weiter-voellig-unsinnig.htm)

Mehr dazu bei https://blog.fefe.de/?ts=9d527456
und https://www.heise.de/news/Fluggastdaten-Verwaltungsgericht-untersagt-BKA-Himmels-Rasterfahndung-7443833.html
und Flugreisedatenauswertung liefert 99,7% Fehler https://www.aktion-freiheitstattangst.org/de/articles/6863-20190427-flugreisedatenauswertung-liefert-997-fehler.htm
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3rF
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8260-20230102-verwaltungsgericht-stoppt-bka.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8260-20230102-verwaltungsgericht-stoppt-bka.htm
Tags: #AI #KI #künstlicheIntelligenz #ChatGPT #Textgenerierung #DeepFake #Manipulation #Texterkennung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Datenskandale #Diskriminierung #Smartphone #Handy #Hacking

aktionfsa@diasp.eu

01.01.2023 Roboter schreiben Texte

Wer hat denn diesen Unsinn geschrieben?

Diese Frage stellt man sich beim Stöbern im Internet oft. Seit einiger Zeit sollte man sich auch Gedanken machen, ob der Text von einem Menschen stammt oder eine KI, eine künstliche Intelligenz, am Werk war. Nach der Veröffentlichung des Chatbots ChatGPT Ende November haben bereits über einer Million Menschen sich von dieser Software Geschichten, Witze u.a. schreiben lassen.

Wir müssen also damit rechnen, dass das Internet in der Zukunft mit KI-generierten Texten überflutet wird. Das bedeutet schon wieder einmal das Gegenteil von Nachhaltigkeit, denn die literarisch und politisch völig überflüssigen Texte werden hin- und hergeschickt, ohne dass die Verursacher die CO2 Emisionen zahlen.
Noch schlimmer ist dieser Effekt bei "Spielereien" mit Bilddateien oder Videos (Deep Fake ersetzt Gesichter durch andere)

Die politiisch wichtigere Nachricht ist, dass es kaum eine Möglichkeit gibt, die vom Chatbot von OpenAI erstellten Texte als minderwertig und damit unwichtig zu erkennen. So erscheinen sie nämlich nicht - im Gegenteil.

Markieren - verbieten - oder?

Als Aktion Freiheit statt Angst sind wir natürlich gegen jede Zensur im Internet, aber eine Markierung könnte hilfreich sein, wenn man befürchten muss, dass solche automatisch erzeugten Texte in Massen genutzt werden können, um die öffentliche Meinung in eine Richtung zu beeinflussen. Die Voraussetzung für eine Kennzeichnung ist aber erst einmal, dass man sie als künstlich erzeugt erkennt.

In den Anfängen der automatischen Texterzeugung war es einfach so etwas zu erkennen, aber inzwischen sind die automatisch erzeugten Texte formal besser und in jedem Fall fehlerfreier als vom Menschen geschriebene. Aber auch die Methoden, mit denen Forscher versuchen KI-generierte Text zu erkennen, werden besser. So hilft das Auszählen von häufig vorkommenden Wörtern, wie "the", "it" oder "is". Das Ergebnis ist aber immer nur eine Wahrscheinlichkeit und keine klare 0 oder 1.

Fazit: Systeme zur Erkennung von KI-Sprachmodellen erzeugten Texten müssen selbst KI-Sprachmodelle enthalten, wenn sie die Texte beurteilen möchten. Damit sind die möglichen Kontrolleure genau diejenigen, die z.Zt. auf diesem Gebiet in Führung liegen. Und ChatGPT ist ein Ableger des großen Sprachmodells GPT-3 der von Elon Musk, Microsoft und anderen Konzernen finanzierten Firma OpenAI.

Auf ein weiteres Problem sind wir nicht eingegangen: Außer für "normale Sprache" werden KI Programme auch eingesetzt, um lästigen Standardcode für Softwareprogramme automatisch zu generieren. Wenn sich dort Fehler einschleichen, werden diese eventuell erst im Wirkbetrieb entdeckt, wenn sie sich fatal bemerkbar machen.

Mehr dazu bei https://www.heise.de/hintergrund/Wie-man-KI-generierte-Texte-erkennen-kann-7434812.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3rE
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8259-20230101-roboter-schreiben-texte.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8259-20230101-roboter-schreiben-texte.htm
Tags: #AI #KI #künstlicheIntelligenz #ChatGPT #Textgenerierung #DeepFake #Manipulation #Texterkennung #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Datenskandale #Diskriminierung #Smartphone #Handy #Hacking