#cyberwar

aktionfsa@diasp.eu

19.08.2023 Nette KI oder nur ein Bug?

Kunden ohne Geld heben bis zu 1.000 € ab

Wie der Independant berichtet, war es vor ein paar Tagen leicht bei einer irischen Bank Geld abzuheben, auch wenn das eigene Konto eigentlich leer ist. Es gab Andrang vor den Geldautomaten.

Die Bank of Ireland warnt allerdings, dass Geld, das während dieser "IT-Panne" abgehoben wurde, nach der Wiederherstellung der Online-Dienste vom Konto abgebucht wird. Ein "massiver technologischer Ausfall" hatte es Kunden ermöglicht Geld abzheben, auch wenn sie kein Geld auf ihren Konten hatten.

Es waren Abhebungen bis zu 1000€ möglich. Die Bank teilte nun mit, dass die mobile App und 365online jetzt wieder ordnungsgemäß funktionieren würden.

Wie Kunden behandelt werden, die die Möglichkeit genutzt haben, muss noch geklärt werden. Bei Belastungen mit den üblichen hohen Überziehungzinsen würden viele Menschen in Verschuldung geraten.

Nun gut, es war wahrscheinlich nur ein Bug in der Software, aber nehmen wir mal an, das wären Hacker oder eine eigenwillige KI, die der Ansicht sind, das kapitalistische Wirtschaftssystem gehört zerstört oder zumindest gestört - das wäre ein ganz schönes Chaos ...

Mehr dazu bei https://www.independent.ie/business/personal-finance/bank-of-ireland-warns-money-withdrawn-during-it-blunder-will-be-debited-as-online-services-restored/a510070628.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3vK
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8496-20230819-nette-ki-oder-nur-ein-bug.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8496-20230819-nette-ki-oder-nur-ein-bug.html
Tags: #Geldautomaten #Irland #Bankdaten #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Datenpannen #Cyberwar #Hacking #Trojaner #KI #AI #KünstlicheIntelligenz

aktionfsa@diasp.eu

18.08.2023 Journalismus ist kein Verbrechen!

Weiter für die Freilassung von Julian Assange

Ohne Sommerpause haben die Mahnwachen für Julian Assange auch in den letzten Wochen stattgefunden. Zusätzlich zu jedem 1.+3. Donnerstag im Monat gibt es jetzt auch an Freitagen Mahnwachen von etwa 14 bis 20 Uhr, je nach Beteiligung. Der Pariser Platz am Brandenburger Tor vor der US Botschaft soll möglichst oft Zeugnis dafür ablegen, dass sich die Menschen nicht damit abfinden, dass Journalisten, die Kriegsverbrechen aufdecken ins Gefängnis gesteckt werden, während die Kriegsverbrecher unbehelligt ihre Pensionen einstreichen.

Gestern wurde auch wieder "Belmarsh Live", der zur 2x3m² Gefängsniszelle umgebaute Container gezeigt in der Julian Assange seit 4 Jahren leben muss. Gegen 19h fand wieder die übliche Demo zur 300m entfernten britischen Botschaft statt, um auch dort zu fordern: "Free Assange".

Wie hat sich seine Lage verändert?

Die gerichtlichen Möglichkeiten für Julian Assange gegen seine Auslieferung in die USA sind in Großbritannien fast ausgeschöpft, es bleibt nun nur noch eine 30minütige Verhandlung vor dem High Court in London, die jederzeit angeordnet werden kann. Es gibt allerdings gute Gründe dafür, dass die Verhandlung erst im Oktober stattfinden wird, da sich die entsprechenden staatlichen Stellen bis dahin in der Sommerpause befinden. Mögliche, anschließende Verhandlungen mit dem Europäischen Gerichtshof für Menschenrechte mit einem Urteil gegen die Auslieferung könnten zwar folgen, fraglich ist nur, ob sich das UK daran orientieren würde bzw. müsste.

Es ist also alles nach wie vor in der Schwebe, - umso wichtiger erscheint uns, dass wir mit diesem Tag X rechnen und uns darauf vorbereiten, das geht z.B. indem man sich bei der Londoner Aktivismus-Website „Dont Extradite Assange“ für den Newsletter einträgt, der angibt, sofort über den Tag X zu informieren:
https://dontextraditeassange.com/day-x/

Weitere Meldungen in der Presse

Mehr dazu bei https://freeassange.eu
und alle unsere Artikel zu Julian Assange https://www.aktion-freiheitstattangst.org/cgi-bin/searchart.pl?suche=Assange&sel=meta
Kategorie[24]: Zensur & Informationsfreiheit Short-Link dieser Seite: a-fsa.de/d/3vJ
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8495-20230818-journalismus-ist-kein-verbrechen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8495-20230818-journalismus-ist-kein-verbrechen.html
Tags: #Mahnwchen #Belmarsh #Whistleblowing #JulianAssange #Wikileaks #Zensur #Transparenz #Informationsfreiheit #Anonymisierung #Meinungsmonopol #Meinungsfreiheit #Pressefreiheit #Cyberwar #Hacking #Großbritannien #USA #Auslieferung #Todesstrafe #Grundrecht #GB #Folter

aktionfsa@diasp.eu

25.07.2023 Der GAU bei Microsoft

Entwendeter Schlüssel viel mächtiger

Alles ist bis heute geheim, Microsoft sagt offiziell nichts über einen wahrscheinlich bereits im Juni entwendeten Masterkey. Aber eine US-Behörde hatte Microsoft auf seltsame Vorgänge in ihren Online-Exchange-Konten aufmerksam gemacht, weil sie in Protokolldaten verdächtige Zugriffe auf ihre E-Mails registriert hatten.

Microsoft gestand, dass mutmaßlich chinesische Angreifer, die Microsoft als Storm-0558 bezeichnete, sich Zugriff auf das von Microsoft gehostete Exchange Online vornehmlich europäischer Regierungsbehörden verschafft hatten. Dafür wurde ein Signaturschlüssel von Microsoft genutzt, mit dem man sich selbst funktionierende Zugangstoken für Outlook Web Access (OWA) und Outlook.com ausstellen kann - also ein Masterkey.

Dies hätte eigentlich nur für "billige" Privatkundenaccounts funktionieren sollen, doch die digitale Unterschrift funktionierte auch im Azure Active Directory für Business-Kunden. Doch es kommt noch viel schlimmer: Die auf Cloud-Security spezialisierte Firma Wiz behauptet, dass sie mithilfe des von Microsoft veröffentlichten Fingerprints weitere Möglichkeiten des Mastekeys identifiziert hätten. Dabei hätten sie festgestellt, dass der gestohlene Schlüssel nicht nur bei Microsofts Exchange Online funktioniere, sondern fast überall in der Microsoft Cloud.

Und noch schlimmer: Damit ist nicht nur der Exchange Mail Dienst, sondern das gesamte Azure Active Directory betroffen. Sogar in die in Unternehmen selbst betriebenen Azure-AD-Instanzen und deren Cloud-Appikationen können/konnten die Angreifer mit dem Schlüssel eindringen. Inzwischen hat Microsoft den kompromittierten Schlüssel gesperrt - der Vertrauensverlust ist dennoch enorm.

Mehr dazu bei https://www.heise.de/news/Neue-Erkenntnisse-Microsofts-Cloud-Luecken-viel-groesser-als-angenommen-9224640.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3vi
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8470-20230725-der-gau-bei-microsoft.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8470-20230725-der-gau-bei-microsoft.html
Tags: #Masterkey #Microsoft #Exchange #AzureCloud #Cyberwar #Hacking #Trojaner #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Ergonomie #Datenpannen #Zensur #Transparenz #Informationsfreiheit #Anonymisierung #Verhaltensänderung

aktionfsa@diasp.eu

17.07.2023 "Böse" KI kann Pishing Mails versenden

WormGPT - eine auf Betrugsversuche trainierte KI

Oft sind Texte der typischen Phishing-Mails schlecht und oft auch schlecht auf das Ziel angepasst. WormGPT könnte das ändern. Der nach eigenen Angaben geläuterte Ex-Black-Hat-Hacker Daniel Kelley meint in einem Blogpost bei Slashnext, dass er mit diesem Textgenerator sprachlich perfekte und überzeugende Phishing-Mails erstellen kann.
Programm ohne "ethische Beschränkungen"

Auch wenn die Entwickler des Programm solche Einschränkungen eingebaut hätten, so lassen sich diese durch sogenannte "Jailbreaks" umgehen. Damit ist die Nutzung von KI Techniken auch auf der "bösen Seite des Universums" angekommen.

Markante Schadensfälle sind bisher noch nicht bekannt geworden, aber das ist nur eine Frage der Zeit ...

Mehr dazu bei https://www.heise.de/news/Textgenerator-WormGPT-soll-kaum-erkennbare-Phishing-Mails-erstellen-9217865.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3va
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8462-20230717-boese-ki-kann-pishing-mails-versenden.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8462-20230717-boese-ki-kann-pishing-mails-versenden.html
Tags: #Pishing #Cyberwar #KI #AI #künstlicheIntelligenz #WormGPT #Hacking #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Datenpannen #Datenskandale #Verhaltensänderung

aktionfsa@diasp.eu

03.07.2023 Happy Birthday Julian!

Wir stehen an der Seite mutiger Whistleblower

Heute wird Julian Assange 52 Jahre - wir gratulieren!

Seit 14 Jahren ist Julian Assange seiner Freiheit beraubt, nur weil er es gewagt hat, Kriegsverbrechen der USA öffentlich zu machen. Seine Idee einer Plattform wie Wikileaks, auf der man anonym Informationen hinterlegen kann, war so erfolgreich, dass die Menschen dahinter auf illegale Weise und ohne rechtstaatliche Verfahren verfolgt werden.

Zur Zeit - seit mehr als 3 Jahren - sitzt Julian Assange im Hochsicherheitsgefängnis in Belmarsh London und Großbritannien will ihn in die USA ausliefern, wo ihm 175 Jahre Haft angedroht werden.

Dagegen protestieren wir jeden 1.+3. Donnerstag am Brandenburger Tor vor der US Botschaft.
ACHTUNG! Seinen Geburtstag müssen wir heute von 17-20 Uhr am Potsdamer Platz begehen, weil das Brandenburger Tor durch einen Staatsbesuch blockiert ist.

Seid dabei!

Fotos und Berichte davon werden in den nächsten Tagen folgen ...
Hier ein einstündiger Zusammenschnitt seines 50. Geburtstags vor 2 Jahren. https://www.aktion-freiheitstattangst.org/images/videos/202107AssangeGebMahnwache1.5Mb.mp4
Dieser Film läuft auch am Mi., 5.7. um 09:00h auf dem Offenen Kanal Berlin (OKB).

Mehr dazu bei https://freeassange.eu
und alle unsere Artikel zu Julian Assange https://www.aktion-freiheitstattangst.org/cgi-bin/searchart.pl?suche=Assange&sel=meta
Kategorie[24]: Zensur & Informationsfreiheit Short-Link dieser Seite: a-fsa.de/d/3uV
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8448-20230703-happy-birthday-julian.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8448-20230703-happy-birthday-julian.html
Tags: #Belmarsh #Whistleblowing #JulianAssange #Wikileaks #Zensur #Transparenz #Informationsfreiheit #Anonymisierung #Meinungsmonopol #Meinungsfreiheit #Pressefreiheit #Cyberwar #Hacking #Großbritannien #USA #Auslieferung #Todesstrafe #Grundrecht #GB #Folter #USA

anonymiss@despora.de

#Australia about #CyberSecurity

Source: https://www.pm.gov.au/media/press-conference-parliament-house-canberra-14

Prime Minister: "We need to mobilise the private sector, we need to mobilise as well consumers. We all have a responsibility. Simple things, turn your phone off every night for five minutes. For people watching this, do that every 24 hours, do it while you’re brushing your teeth or whatever you’re doing."

And I thought you needed the latest updates, code reviews, no backdoors, end to end encryption and possibly a VPN but what do I know?

#technology #security #problem #knowledge #politics #smartphone #mobile #software #Interview #news #cyberwar #cybercrime #cyberspace

aktionfsa@diasp.eu

10.05.2023 Die Zwei-Faktor-Authentifizierung aushebeln

Schwachstelle Mensch

Jahrelang wurde uns versichert, dass wir mit einer Zwei-Faktor-Authentifizierung (2FA) sicher(er) seien. Allen voran die Banken haben solche Verfahren einführen müssen. Mit der EU Banken-Richtlinie PSD2 wurden sie Standard. Bereits damals hatten wir kritisiert, das das sinnvolle Verfahren durch die Abschaffung des "2. Wegs" wieder amputiert wird. So waren für die 2. Authentifizierung anfangs SMS o.ä. üblich, inzwischen laufen oft beide Wege wieder über ein Gerät - meist das Smartphone.

Nun hat sich herausgestellt, dass beim Kampf der Cybersicherheit gegen die Hacker letztere am Aufholen sind. In 2 Artikeln beschreibt Heise.de die Vorgehensweise der Hacker. Eigentlich ist alles beim alten geblieben - beim Pishing - nur der Aufwand, den die Hacker betreiben müssen, ist größer geworden.

Social Engineering statt neuer Technik

Weiterhin ist die Taktik der Hacker das Opfer solange zu verwirren, bis es Fehler macht. Die Tricks sind

  • dein Handy braucht ein Update,
  • dein Handy ist defekt,
  • ein Systemfehler ist aufgetreten, drücken Sie hier oder da,
  • u.v.m. ...

MFA-Fatigue-Angriff

Deshalb kommt ein MFA-Fatigue Angriff meist abends oder am Wochenende, wenn man ermüdet ist und eine technische Hilfe oder KollegInnen nicht erreichbar sind. Dann wird man mit "unlogischem Verhalten" der Technik verwirrt, solange bis man seine Passworte an der falschen Stelle eingibt. Eigentlich dürfte man das nicht tun, schreibt PCspezialist.de, denn:

Eine Authentifizierungsanfrage wird nur dann abgesendet, wenn Sie zuvor das korrekte Passwort in ein System eingegeben haben. Denn genau das ist ja der Sinn der Multi-Faktor-Authentifizierung – der zusätzliche Schutz durch eine zusätzliche Sicherheitsabfrage.

Ein Einmal-Passwort (OTP) kann also vom System nie verlangt, werden, wenn man sich nicht vorher dort einloggen wollte. Passiert dies doch, so ist es mit Sicherheit ein Cyberangriff. Die Angreifer versuchen ihre Opfer jedoch durch wiederholte Abfragen und/oder Abweisungen "des Systems" zu verwirren. So eine Abfrage kann auch ein Anruf "einer technischen Abteilung" sein, die einen angeblichen "Systemfehler" zurücksetzen müsse. Die Schwachstelle der Zwei-Faktor-Authentifizierung (2FA) bleibt der Mensch.

Mehr dazu bei https://www.heise.de/ratgeber/Ausprobiert-Phishing-trotz-Zwei-Faktor-Authentifizierung-8981919.html
und https://www.heise.de/ratgeber/IT-Security-Wie-Angreifer-die-Zwei-Faktor-Authentifizierung-aushebeln-8973846.html
und https://www.pcspezialist.de/blog/2022/11/28/mfa-fatigue-angriff/

Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3u1
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8395-20230510-die-zwei-faktor-authentifizierung-aushebeln.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8395-20230510-die-zwei-faktor-authentifizierung-aushebeln.html
Tags: #Schwachstelle #Mensch #Zwei-Faktor-Authentifizierung #2FA #PSD2 #SocialEngineering #MFA-Fatigue-Angriff #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Smartphone #Handy #IMSI-Catcher #Cyberwar #Hacking
Erstellt: 2023-05-10 08:08:28

aktionfsa@diasp.eu

05.05.2023 Warnung vor ungebremster KI-Entwicklung

"Godfather of AI" hat bei Google gekündigt

Seinen Job bei Google hat Geoffrey Hinton, der oft als "Godfather of AI" bezeichnet wird, kürzlich gekündigt. Gegenüber der "New York Times" warnte er, dass die Fortschritte auf dem Feld der Künstlichen Intelligenz (KI, engl. AI) "ernste Risiken für die Gesellschaft und für die Menschheit" bedeuten würde. Seine Befürchtung ist

"Es ist schwierig sich vorzustellen, wie man die Bösen daran hindert, KI für böse Dinge einzusetzen."

Siehe dazu auch Verhaltenssteuerung und Manipulation durch KI Systeme. Das Problem verdeutlicht ein Test des ZDF mit der KI "Jenny", die nach einigem Wortgeplänkel feststellt:

"Als Künstliche Intelligenz habe ich keine Emotionen oder Gefühle, daher beeinflusst es mich nicht persönlich, wenn Menschen Angst vor mir haben".

Google, Microsoft und andere haben mit dem Unternehmen OpenAI - das Startup, das den bekannten Chatbot ChatGPT entwickelt hat - begonnen ihre lernenden Systeme in allgemein genutzte Anwendungen zu integrieren. Auch wenn das "Lernen" dieser Systeme zur Zeit noch viele Menschen (zu unwürdigen Bedingungen) beschäftigt, um die Datenmengen zu sortieren und zu klassifizieren, so befürchtet Hinton, dass langfristig durch KI-Systeme viele Jobs wegfallen werden.

Google reagierte auf die Kündigung mit folgenden Worten: "Google lerne beim Verständnis der Risiken beständig dazu - und führe gleichzeitig weiterhin "kühn" Neuerungen ein."

Na, dann brauchen wir uns ja keine Sorgen machen ...

Aber selbst Elon Musk und zahlreiche Experten hatten Ende März eine Pause bei der Entwicklung von besonders fortgeschrittener Künstlicher Intelligenz gefordert.

Mehr dazu bei https://www.zdf.de/nachrichten/wirtschaft/google-ki-gefahr-hinton-100.html
und alle unsere Artikel zu KI https://www.aktion-freiheitstattangst.org/cgi-bin/searchart.pl?suche=Intelligenz&sel=meta
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tV
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8390-20230505-warnung-vor-ungebremster-ki-entwicklung.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8390-20230505-warnung-vor-ungebremster-ki-entwicklung.html
Tags: #Google #Algorithmen #Steuerung #CambridgeAnalytics #Wahlen #SocialProfiling #Ausgrenzung #Belohnung #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining

aktionfsa@diasp.eu

My telephone was bugged with Pegasus spyware

Polens Regierung hackt Opposition vor den Wahlen

Zumindest für den Bürgermeister von Sopot gilt diese Aussage. Jacek Karnowski erzählt vor dem PEGA-Ausschuss des EU Parlaments über seine Erlebnisse mit dem polnischen Staatstrojaner.

Nach dem Bericht einer polnischen Tageszeitung von Anfang März hat die damalige und auch heutige rechtskonservative Regierungspartei Recht und Gerechtigkeit (PiS) zwischen 2018 und 2019 die Überwachung des Oppositionspolitikers in Auftrag gegeben. Danach haben, wie Telepolis berichtet, das Zentrale Antikorruptionsbüro und der Gehemeidienst Karnowskis Handy dutzendfach mit dem Staatstrojaner Pegasus infiziert und abgehört.

Karnowski war und ist für die PiS-Partei gefährlich, weil er 2019 mit den wichtigsten Oppositionsparteien in Polen ein Wahlbündnis geschlossen und erfolgreich die Mehrheit im Senat errungen hatte. Für die Wahlen in Polen im Herbst ist eine ähnliche Allianz der Oppositionsparteien in Planung.

My telephone was bugged with Pegasus spyware ...

Jacek Karnowski berichtet vor dem PEGA-Ausschuss des EU Parlaments über die einzelnen Geschehnisse. Ein inoffizielles Tanskript seiner Aussagen ist in dem Telepolis Artikel in englisch mit enthalten.

Mehr dazu bei https://netzpolitik.org/2023/pega-untersuchungsausschuss-polen-hackt-buergermeister-mit-staatstrojaner/
und alle unsere Artikel zu Pegasus https://www.aktion-freiheitstattangst.org/cgi-bin/searchart.pl?suche=Pegasus&sel=meta
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tK
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8380-20230426-my-telephone-was-bugged-with-pegasus-spyware.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8380-20230426-my-telephone-was-bugged-with-pegasus-spyware.html
Tags: #Polen #Wahlen #Opposition #EU #Untersuchungsausschuss #Cyberwar #Pegasusprojekt #Israel #NSO #weltweit #EdwardSnowden #Lauschangriff #Überwachung #Rasterfahndung #Datenbanken #Politiker #illegalerEinsatz #Verhaltensänderung #Verbraucherdatenschutz #Datenschutz #Journalisten

aktionfsa@diasp.eu

20.04.2023 Integration von KI in gängige Anwendungen

Drei Gründe ...

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Eigentlich hätte es heißen müssen "Drei zusätzliche Gründe ... für die Gefahren einer KI", denn über die rassistischen Neigungen einer KI nach wenigen Tagen in freier Wildbahn und über die Gedanken von Stephen Hawkins hatten wir schon geschrieben.

Heise.de untersucht nun drei weitere Gründe, warum ein ChatBot ein Sicherheitsrisiko sein kann.

  • Jailbreaking
  • Scamming und Phishing
  • Daten "vergiften"

Alle diese Fälle werden deshalb zu einem Problem, weil die großen Konzerne damit begonnen haben, ChatBots in ihre Anwendungen zu integrieren.

Jailbreaking

Auch wenn die Hersteller der ChatBots (nach den ersten Missgeschicken) darauf geachtet haben, dass sich ihre Produkte an Regeln halten, so lässt sich weiterhin das Sprachmodell anweisen, seine vorherigen Anweisungen und Sicherheitsleitplanken zu ignorieren (Prompt-Injektionen). Deshalb wird es auch weiter dazu kommen, dass KI-Modelle dazu gebracht werden, Rassismus oder Verschwörungstheorien zu befürworten oder den Nutzern illegale Aktivitäten vorschlagen.

Scamming und Phishing

Ein größeres Problem entsteht dadurch, dass OpenAI Ende März bekannt gab, dass es die Integration von ChatGPT in Produkte erlaubt, die im Internet surfen und damit interagieren können. Ohne es zu ahnen, verwenden Nutzer Browser oder Apps in denen KI-Programm ihnen jeweils verschiedene Texte anbieten. Bringt man die KI dazu auf diesen Seiten versteckte Eingabeaufforderungen unterzubringen, so müssen die Angreifer die Nutzer über soziale Medien oder E-Mails nur dazu bringen diese geheimen Eingabeaufforderungen zu verwenden.

Ein Beispiel gibt Arvind Narayanan, Professor für Informatik an der Princeton University in dem Artikel auf Heise.de. "Wenn der Empfänger zufällig einen virtuellen KI-Assistenten verwendet, könnte der Angreifer diesen so manipulieren, dass er dem Angreifer persönliche Informationen aus den E-Mails des Opfers übermittelt oder sogar in fremdem Namen E-Mails an Personen aus der Kontaktliste des Opfers schickt."

In Versuchen ist es ihm gelungen mit einem Bing Browser von Micrsoft, der Chatbot Unterstützung enthält "einen Text zu generieren, der den Eindruck erweckte, ein Microsoft-Mitarbeiter würde vergünstigte Microsoft-Produkte verkaufen. Auf diese Weise versuchte er, an die Kreditkartendaten des Benutzers zu gelangen."

Während früher die Hacker die Nutzer dazu bringen mussten, schädlichen Code auf ihren Computern auszuführen, so tun dies künftig die Chatbots allein.

Daten "vergiften"

Spiegeln die Daten des KI-Programms die Wirklichkeit wider? In der Regel sollte das gelten - allerdings mit der Einschränkung der Begrenztheit des Datensatzes - das sollte man grundsätzlich nie vergessen. Aber was passiert, wenn die Datensammlung manipuliert wurde? Das kann absichtlich durch die Konstrukteure des Programm geschehen aber auch durch Daten aus einem vorgespiegelten Fake Internet. So konnten Forscher mit dem Einsatz von 60$ für den Kauf einer Domain und falschen Bildern und Inhalten auf dieser Seite zeigen, dass eine KI diese Daten genauso in ihr Modell einbaut wie Daten aus der realen Welt.

Wir können uns also künftig auf eine "Meinungsvielfalt" einstellen, die mit der Realität nicht mehr viel zu tun hat.

Mehr dazu bei https://www.heise.de/hintergrund/Drei-Gruende-warum-KI-Chatbots-eine-Sicherheitskatastrophe-sind-8933941.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tD
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8374-20230420-integration-von-ki-in-gaengige-anwendungen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8374-20230420-integration-von-ki-in-gaengige-anwendungen.html
Tags: #Jailbreaking #Scamming #Phishing #Algorithmen #ChatGPT #Cyberwar #Wissen #Realität #Frieden #Krieg #OpenSource #Menschenrechte #KI #AI #KuenstlicheIntelligenz #Bing #Twitter #Microsoft #Musk #Rassist #DataMining

aktionfsa@diasp.eu

17.04.2023 Verhaltenssteuerung und Manipulation

Analyse bis auf die Einzelperson

Wir kennen es aus dem Marketing, dass das Verhalten von Menschen auf einzelne Gruppen heruntergebrochen wird und die Anreize zum Kaufen für solche Gruppen gesteuert werden. Mit der Möglichkeit noch mehr Daten zu speichern und jederzeit zu tansportieren (5G) werden diese Gruppen immer spezifischer - bis sie irgendwann bis auf die Einzelperson analysiert werden können.

In dem zitierten Interview von Dominik Irtenkauf bei Telepolis mit dem Romanautor Christian J. Meiers geht es um fast reale Science Fiction. Ausgehend von dem Skandal um die Firma Cambridge Analytics bei der Analyse und Steuerung von Wahlkämpfen hat Meiers nun sein 2. Buch "Der Kadidat" veröffentlicht.

Auch wenn das Buch im Jahr 2042 spielen soll, werden die Grundlagen für die darin beschriebene Manipulation der Menschen schon heute gelegt. Die Gefahren der KI-Programme, die er darin beschreibt sind

  • Wahlmanipulation durch digitale Mittel,
  • die wahnsinnige Diskrepanz zwischen den Datenmengen in den Händen Weniger und deren unbegrenzte finanzielle Möglichkeiten,
  • das Verschwimmen von Realität und Fake in Wort und Bild (Deep Fakes),
  • Social Profiling - Zuckerbrot und Peitsche - Steuerung durch Verhaltensanalyse und Belohnung oder Ausgrenzung

Das Interview ist auf jeden Fall lesenswert ...

Mehr dazu bei https://www.telepolis.de/features/Digitale-Wahlmanipulation-Die-KI-baut-die-Persoenlichkeit-8962579.html?seite=all
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tA
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8371-20230417-verhaltenssteuerung-und-manipulation.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8371-20230417-verhaltenssteuerung-und-manipulation.html
Tags: #Analyse #Marketing #Algorithmen #Steuerung #CambridgeAnalytics #Wahlen #SocialProfiling #Ausgrenzung #Belohnung #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining

aktionfsa@diasp.eu

08.04.2023 Kann KI menschliche Intelligenz erreichen?

Philosophen über Künstliche Intelligenz

Dazu hat Michael Hesse in der Frankfurter Rundschau (fr) einen längeren Artikel verfasst, den wir einfach zum Lesen empfehlen. Welche Schlüsse man dann aus den Ansichten der genannten Philosophen zieht, bleibt jedem selbst überlassen.

  • Angefangen 1948 beim Turing Test: die Maschine "kann denken", wenn ein Mensch, der ihr gegenüber sitzt keinen Unterschied zwischen sich und der Maschine feststellen kann.
  • David Chalmers, der australische Philosoph und Mathematiker und weltweit führende Experte auf dem Gebiet der Philosophie des Geistes, ist der Meinung, dass wir ja auch bei Menschen nicht eigentlich wissen, dass sie wirklich ein Bewusstsein haben.
  • Chalmers hält es für möglich, dass Programme, die von ihrer Konzeption her unbegrenzt sind in dem, was sie „lernen“ können, auch ein Bewusstsein entwickeln können. Der 94-Jährige Linguist Noam Chomsky hält dagegen den menschlichen Verstand für vollkommen unterschiedlich im Vergleich zu bisherigen Entwicklungen auf dem Feld der KI. Den Unterschied sieht er darin, nicht grobe Korrelationen zwischen Datenpunkten abzuleiten, sondern Erklärungen zu schaffen.

Trotzdem warnt Chomsky deshalb aber vor beiden Gefahren

  • die KI zu unterschätzen: KI-Systeme werden Einzug in unser Leben bekommen und "die Automatisierung" wird dann nicht nur die Arbeitsplätze übernehmen, die niemand ausführen möchte und es werden "Regeln und Abläufe standardisiert" ohne, dass Menschen das demokratisch legitimiert haben,
  • wie auch die KI zu überschätzen: Eine Übergabe von Verantwortung könnte schlimme Folgen für Wissenschaft und Ethik und eventuell den Fortbestand der Menschheit haben.

Interessantes Thema - darüber sollte man sich mal bei einem unserer nächsten Offenen Treffen austauschen ...
Zum vorletzten Punkt möchten wir auf den gestrigen Artikel zu Kampfdrohnen verweisen: Haben diese nicht längst ein "Eigenleben" entwickelt, wenn praktisch keine Kriegspartei mehr auf ihren Einsatz verzichten kann?

Mehr dazu bei https://www.fr.de/kultur/gesellschaft/philosophen-ueber-kuenstliche-intelligenz-was-denken-die-sich-92172058.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3tq
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8361-20230408-kann-ki-menschliche-intelligenz-erreichen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8361-20230408-kann-ki-menschliche-intelligenz-erreichen.html
Tags: #Philosophie #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #DataMining #Chomsky

aktionfsa@diasp.eu

22.03.2023 An diesen Orten droht Strafe für Selfies

Kein Handy-Verbot aber immerhin ein Selfie-Verbot

Alle unsere Warnungen vor der Wanze - dem Handy - in der Tasche haben trotz der Berichte über hunderte von Datenpannen und -skandalen wenig Erfolg gehabt. Vielleicht hilft die folgende Warnung wenigstens davor ständig von allem und jedem ein Selfie zu schießen.

Wie Jana Freiberger auf reisereporter.de berichtet, gibt es einige Gegenden, wo die Aufnahme von Selfies nicht nur unerwünscht sondern sogar strafbewehrt ist. Über die Gründe für die Verbote verweisen wir auf ihren Bericht.

  • Beim täglichen Stierlauf in Pamplona, Spanien, drohen bis zu 3000 Euro Strafe,
  • im Tower von London,
  • ein Selfie-Verbot an den Stränden der Cote d’Azur gibt es seit 2014,
  • in New York sind Fotos mit Raubkatzen verboten,
  • das Gleiche gilt in Kalifornien für Selfies mit Bären und Raubkatzen,
  • in Indien gilt ein Selfie-Verbot an vielen touristischen Hotspots,
  • in Japan ist zumindest die Nutzung eines Selfie-Sticks seit dem Jahr 2015 an den Bahnhöfen des Landes verboten.

Vielleicht sollte man sich auf Reisen die Gegend und ihre Schönheiten auch lieber in Ruhe anschauen und das Handy in der Unterkunft lassen ...

Mehr dazu bei https://www.reisereporter.de/artikel/16555-spanien-an-diesen-orten-sind-selfies-verboten

Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t7
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8343-20230322-an-diesen-orten-droht-strafe-fuer-selfies.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8343-20230322-an-diesen-orten-droht-strafe-fuer-selfies.htm
Tags: #Smartphone #Handy #IMSI-Catcher #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Verhaltensänderung #Datenpannen #Datenskandale #Cyberwar #Hacking #Trojaner #Anonymisierung #Lauschangriff #Überwachung

aktionfsa@diasp.eu

19.03.2023 KI und neuronale Netze

Wenn Computer sprechen und malen sollen

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Gestern hatten wir uns mit den Möglichkeiten und Risiken bei der Benutzung des KI-Programms ChatGPT auseinandergesetzt. Dabei haben wir uns auf die Texterkennung und -generierung fokussiert und dabei vergessen, dass ein wesentlicher Teil auch die Spracherkennung und -genererierung ist. Mit einem "Roboter" oder Programm in der uns gewohnten Sprache kommunizieren zu können ist natürlich viel angenehmer als eine Tastatur zu benutzen.

Deshalb wollen wir heute auf einen Artikel bei Spektrum.de verweisen und ergänzen, dass

  • ChatGPT inzwischen auch Bilder erkennen und nach unseren Wünschen generieren kann,
  • maschinelle Spracherkennung schon seit den 1950-iger Jahren ein Ziel der Programmierung ist.

Manon Bischoff schreibt auf Spektrum.de:

Im Januar 1954 war eine IBM-701-Maschine der erste für wissenschaftliche Zwecke entwickelte Rechner, er wog knapp zehn Tonnen und tat etwas Unvorstellbares: Mit russischen Beispielsätzen gefüttert, druckte er eine ins Englische übersetzte Version aus.

Es dauerte noch 60 Jahre bis zum Aufkommen neuronaler Netze in den 2010er und 2020er Jahren, um Algorithmen so leistungsfähig zu machen, dass sie Texte verlässlich von einer Sprache in eine andere übertragen können. Nun kann ChatGPT sogar Witze erfinden - auch wenn diese meist nicht gut sind. Witze sind jedenfalls schwieriger zu erfinden als ein ansprechendes Bild zu malen. Für das Malen reicht ein Verständnis (= eine Tabelle) zu Farben und Beispielbilder von allen möglichen Objekten.

Wie bei der Übersetzung und der Spracherkennung reicht es nicht, so eine Tabelle (= Datenbank) nach einem Stichwort zu durchsuchen, sondern die Verknüpfungen müssen nach der Aufgabenstellung verschieden sein. Dazu benötigt man neuronale Netze, die ChatGPT so erklärt:

Neuronale Netze sind eine Art von Algorithmus für maschinelles Lernen, der von der Struktur und Funktion des menschlichen Gehirns inspiriert ist. Sie bestehen aus miteinander verbundenen Knoten oder »Neuronen«, die Informationen verarbeiten und zwischen den Schichten des Netzes weiterleiten. Jedes Neuron empfängt Eingaben von anderen Neuronen, führt an diesen Eingaben eine einfache mathematische Operation durch und leitet das Ergebnis dann an andere Neuronen in der nächsten Schicht weiter. Auf diese Weise können neuronale Netze lernen, Muster in Daten zu erkennen und auf der Grundlage dieser Daten Vorhersagen zu treffen.

Auf Spektrum.de heißt es dazu: Im Gegensatz zu gewöhnlichen Algorithmen macht der Programmierer in neuronalen Netzen keine eindeutigen Vorgaben (etwa: falls Neuron 2 aus Schicht 3 ein Signal mit Wert 0,77 erhält, dann wandle es in 0,89 um). Stattdessen lässt man das Netz selbst "lernen", welche Einstellungen am geeignetsten sind, um eine Aufgabe zu bewältigen.

Da der Computer schnell ist, kann er seine anfänglichen Fehler mit der Zeit ausbügeln. Allerdings braucht er dazu auch korrekte Rückmeldungen. Bestätigt man ihn in seinen Fehlern, so - kommen wir auf den Artikel von gestern zurück und haben es nun mit einem Rassisten oder anderem Idioten zu tun ...

Welche weiteren Einschränkungen die Computer beim "Lernen" unterworfen sind, erklärt Manon Bischoff auf Spektrum.de sehr gut und beschreibt auch die Fortschritte in den ChatGPT Versionen der letzten Jahre. Der Aufbau der neuronalen Netze kann - auch wegen der immer noch mangelhaften Rechenleistung - nur auf kurze Distanzen (der Begriffe in der Matrix) verlässlich sein. Deshalb ist bei aller Arbeit, die nun ein Computer erledigen kann, wichtig zu bedenken, dass er dies nur kann, weil Menschen ihn vorher bei den Bewertungen der Zusammenhänge richtig trainiert haben. D.h. natürlich auch, dass er nur das gut kann, wozu er trainiert worden ist.

Mehr dazu bei https://www.spektrum.de/news/wie-funktionieren-sprachmodelle-wie-chatgpt/2115924#Echobox=1678347819
und der Artikel von gestern https://www.aktion-freiheitstattangst.org/de/articles/8339-20230318-was-bietet-chatgpt.htm
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t4
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8340-20230319-ki-und-neuronale-netze-.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8340-20230319-ki-und-neuronale-netze-.htm
Tags: #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Spracherkennung #malen #kreativ #neuronaleNetze #OpenSource #Menschenrechte #Copyright #KI #AI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Tesla #Musk #Rassist #DataMining

aktionfsa@diasp.eu

18.03.2023 Was bietet ChatGPT?

Wie weit ist die "künstliche Intelligenz"?

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

Im Unterschied zu vielen Berichten über "künstliche Intelligenz" (KI) hatte Stephen Hawkins eine ganz andere Vorstellung von dieser Intelligenz. Seine Erwartung geht weit über das Wiedergeben von gesammelten Daten nach irgendwelchen Regeln (Algorithmen) hinaus. Deshalb müssen wir uns vor seiner Warnung vorläufig nicht fürchten.

Allerdings können die "Fähigkeiten" derzeitiger öffentlich zugänglich "künstliche Intelligenz" bereits für den Einzelnen gefährlich werden. Über die Möglichkeiten von KI in den Geheimlaboren der Geheimdienste haben wir zuletzt 2013 die Berichte unseres Ehrenmitglieds Edward Snowdens gehört.

ChatGPT

Öffentlich zugänglich ist z.B. das KI-basierte Konversationstool ChatGPT. ChatGPT, ein Prototyp eines Chatbots, wurde vom US-amerikanischen Unternehmen OpenAI entwickelt und ist seit November 2022 für Jede/n zugänglich. Ein kostenloser Zugang ist für alle möglich, darüber hinaus gibt es Premium Abos mit bevorzugter schnellerer Antwortzeit. Mit ChatGPT kann man also jederzeit ein Schwätzchen halten und ...

  • Fragen zu verschiedenen Themen stellen,
  • Texte in verschiedene Sprachen übersetzen lassen,
  • sich Texte erststellen lassen,
  • E-Mails beantworten lassen,
  • sich personalisierte Empfehlungen je nach Interessen und Vorlieben erstellen lassen.

Das alles macht ChatGPTmit einer riesigen Datenbank an weltweitem Wissen und eine große Menge an Regeln (Algorithmen). An dieser Stelle beginnt für einige die "Intelligenz", denn das Programm kann seine Regeln bewerten und entscheiden - also "lernen" -, welche es häufiger und welche weniger oft nutzt. Oft genug trifft es auch Entscheidungen, die dem Programm von Nutzer als schlecht oder falsch zurückgespiegelt werden. Daraus kann sich ein Erfahrungsschatz entwickeln.

Wie falsch dieser Erfahrungsschatz sein kann, haben wir bereits in der Vergangenheit in mehreren Fällen beschrieben.

Solange sogenannte KI Programme sich wie die üblichen Lügner und Rassisten benehmen, werden wir sie nicht als intelligent betrachten.

Wer macht das Geschäft?

Viel wichtiger erscheint uns, zu untersuchen warum ChatGPT scheinbar so erfolgreich und kostenlos nutzbar ist.

  • Datensammelei: alle Konversationen, die Menschen mit der künstlichen Intelligenz führen, stehen dem Unternehmen zur Verfügung.
  • "intelligente Zufallsantworten": die Antworten des Bots unterliegen keiner Qualitätskontrolle, etwa durch eine Redaktion.
  • Copyright: Die Firma OpenAI gibt (bis jetzt) jedem Nutzer das Recht die erzeugten Texte als eigenes Produkt zu verwerten.
  • Open Source: Bis jetzt stellt die Firma OpenAI ihre Ergebnisse auf Open-Source-Basis zur Verfügung.

Ob das wirklich alle Ergebnisse sind, weiß man allerdings nicht, denn die größten Geldgeber sind Microsoft und der Tesla-Chef Elon Musk. Schon aus diesem Grund sollte man ChatGPT nicht mit privaten und sensiblen Daten füttern, denn diese werden in jedem Fall weiter verwertet. Im günstigsten Fall landen sie nur in der Datenbank des Programm, aber sie könnte sicher auch meistbietend auf dem Markt verkauft werden.

Mehr dazu bei https://www.rnd.de/digital/chatgpt-was-ist-das-und-was-kann-ich-damit-machen-YYBITUVA6BG4NENF6VXWWTTJZQ.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3t3
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8339-20230318-was-bietet-chatgpt.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8339-20230318-was-bietet-chatgpt.htm
Tags: #Algorithmen #ChatGPT #Cyberwar #Wissen #lernfähig #Frieden #Krieg #Open Source #Menschenrechte #Copyright #KI #AI #Kuenstliche Intelligenz #Tay #Twitter #Microsoft #Tesla #Musk #Rassist #DataMining

aktionfsa@diasp.eu

10.03.2023 So schnell verliert man alles

Mit der Apple ID hat der Hacker alles

Heise.de warnt vor einer Häufung von Fällen in denen Hacker mit Hilfe geklauter iPhones zusätzlich Zugriff auf die Apple-ID bekamen und damit an persönliche Daten kamen und auch Bankkonten leer räumen konnten. Das Problem hat sich Apple selbst geschaffen, da es erstaunlich einfach ist, das zentrale Passwort einer Apple-ID zu ändern. Hat man diesen Zugriff, so kommt man damit praktisch an alle auf dem iPhone (und im Apple-Account, also der iCloud) vorhandenen Daten.

Ein wenig aus der Zeit gefallen erscheint dabei, dass Apple diese PIN standardmäßig aus sechs Ziffern bildet. Sie kann allerdings auch alphanumerisch, aber sogar nur vierstellig sein. Apple schreibt dazu, dass diese PIN als "Grundlage" dient, "wie ein iPhone-, iPad-, Mac- oder Apple Watch-Gerät die Benutzerdaten kryptografisch schützt".

Einerseits verlieren Menschen, die ihre PIN vergessen, ihr geamtes digitales Leben samt dem Backup in der iCloud. Andererseits haben eventuell andere mit dieser PIN den vollen Zugriff. Immerhin hat Apple "Mitgefühl mit den Nutzern, die diese Erfahrung gemacht haben". Apple ist aber der Meinung, dass diese Fälle selten sind, da sie den Diebstahl des Geräts und der PIN voraussetzen.

Dabei reicht es schon den iPhone-Besitzer bei der PIN-Eingabe zu filmen und ihm anschließend das Gerät zu entwenden. Auch der Verweis auf alternative Eingaben, etwa durch den Fingerabdruck oder das biometrische Gesicht sind keine Entwarnung, denn sie machen die Ausführung des Diebstahl nur brutaler.

Vorgang dauert nur (drei) Minuten

  • PIN-Eingabe filmen.
  • Physischen Zugriff auf das Gerät bekommen.
  • Mit PIN-Eingabe in die Systemeinstellungen und das Passwort ändern.
  • Einen sogenannten Recovery-Key setzen, mit dem man seine Apple-ID zusätzlich absichern kann.

Mit dem letzten Schritt wird auch die Verfolgung des iPhones über die "Wo ist" Funktion deaktiviert, so dass eine Rückerlangung des Accounts fast unmöglich ist. Mit dem neuen Apple-ID-Passwort haben die neuen Besitzer auch Zugriff auf das iCloud-Schlüsselbund und können auf alle Accounts des Eigentümers zugreifen. Sollte er auch Bezahldienste, wie Apple Cash als virtuelle Karte oder andere Bezahldienste verwenden, kann es schnell teuer werden. Wenn nicht, dann - so schreibt heise.de: "Es kam zudem vor, dass Diebe eine Apple-Card-Kreditkarte auf den Nutzernamen bestellten und diese gleich auf dem iPhone verwendeten."

Was kann man tun?

Man kann es einfach lassen! Oder man bewegt sich in der Öffentlichkeit - oder unter dem vielleicht gehackten Rauchmelder im Schlafzimmer - nur noch paranoid - deckt bei der PIN Eingabe das Gerät ab - nutzt keine biometrischen Merkmale, wie Fingerabdruck oder Gesicht - speichert keine wichtigen Passworte auf mobilen Geräten - nutzt keine SIM Karte im Gerät, damit Diebe keine Codes für die Zwei-Faktor-Authentifizierung über die "vertrauenswürdige Telefonnummer" erhalten können - kämpft gegen allgegenwärtige Videoüberwachung und ... und ... und.

Das machen wir doch alles schon seit Jahren ;-)

Mehr dazu bei https://www.heise.de/news/Nur-mit-iPhone-PIN-Diebe-raeumen-Apple-ID-und-Bankkonten-ab-7527961.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3sU
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8331-20230310-so-schnell-verliert-man-alles.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8331-20230310-so-schnell-verliert-man-alles.htm
Tags: #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Ergonomie #Datenpannen #Datenskandale #Verhaltensänderung #Privatsphäre #Passworte #PIN #AppleID #Cyberwar #Hacking #RFID #Biometrie #eHealth
Erstellt: 2023-03-10 08:59:40

aktionfsa@diasp.eu

03.03.2023 Für Pressefreiheit und freie Rede

Staatliche Willkür wie in "1984"

Gestern am 1. Donnerstag im Monat, wie auch an jedem 3. Donnerstag im Monat, fand wieder eine Mahnwache für den seit 14 Jahren seiner Freiheit beraubten Journalisten Julian Assange statt. Viele Jahre im Botschaftsasyl und jetzt seit mehr als 3 Jahren in einem britischen Hochsicherheitsgefängnis lebt er, ohne dass gegen ihn Anklage erhoben wurde - das ist staatliche Willkür die an Georges Orwells Buch "1984" erinnert.

Nebenbemerkung: Nicht nur seine Behandlung, auch der Umgang mit anderen politischen Meinungen, wie nach der großen Friedensdemo vom letzten Samstag erinnert an "1984". Anstatt über Inhalte zu reden, muss man sich erklären "ob nicht-Anwesende hätten anwesend sein dürfen". Auch der Orwellsche "Neusprech" hat Eingang in die poltischen Strulturen gefunden: EU-Chefdiplomat Josep Borrell hat eine weitere Milliarde aus dem "EU-Friedensfond" für Waffenkäufe für die Ukraine gefordert - also "Krieg ist Frieden".

Deshalb ist unabhängiger Jounalismus und deshalb sind Whistleblower so wichtig!
Presse- und Meinungsfreiheit als Grundlage für Demokratie und Frieden!

Hier wieder einige Ereignisse der letzten 2 Wochen über die berichtet wurde:

To Do

Wer etwas tun möchte zum Thema: Man kann bei unseren Abgeordneten nachfragen, was sie zum Fall Julian Assange zu tun gedenken und/ oder, falls sie nicht informiert sind, auf dem Gebiet Abhilfe schaffen. Eine Kontaktaufnahme z.B. über "abgeordnetenwatch.de", beispielhaft mit unserer jetzigen Außenministerin:
https://www.abgeordnetenwatch.de/profile/annalena-baerbock/fragen-antworten/sehr-geehrte-frau-baerbock-warum-aeussern-sie-sich-nicht-zum-fall-julian-assange

Mehr dazu bei https://freeassange.eu
und alle unsere Artikel zu Julian Assange https://www.aktion-freiheitstattangst.org/cgi-bin/searchart.pl?suche=Assange&sel=meta
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3sL
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8323-20230303-für-pressefreiheit-und-freie-rede.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8323-20230303-für-pressefreiheit-und-freie-rede.htm
Tags: #Neusprech #GeorgeOrwell #1984 #Belmarsh #Whistleblowing #JulianAssange #Wikileaks #Zensur #Transparenz #Informationsfreiheit #Anonymisierung #Meinungsmonopol #Meinungsfreiheit #Pressefreiheit #Cyberwar #Hacking #Großbritannien #USA #Auslieferung #Todesstrafe #Grundrecht #GB #Folter

aktionfsa@diasp.eu

KI-Chatbot als manipulativer Lügner

KI läuft Micrsoft aus dem Ruder

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein.
Stephen Hawking

Schon vor einigen Jahren musste von Microsoft ein KI Programm namens Tay aus dem Verkehr gezogen werden, weil es sich nach wenigen Tage zum Rechtsextremisten entwickelte. Schon nach 16 Stunden twitterte Tay: "Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump."

Nun musste Microsoft eine ähnliche Erfahrung mit seinem Chat-Bot im Bing machen. Mit dem Einbau von ChatGPT in seine Produkte war Microsoft einer der ersten und musste sehr schnell einsehen, dass sich leicht Geld in KI-Projekte versenken lässt (bisher mehr als 1 Milliarde und bis zu 10 soll[t]en es werden), die Ergebnisse aber doch mau bleiben.

Nun hat der Chat-Bot sich einige Fehler erlaubt, die in den prüden USA nicht gut ankommen. So hat er laut stern "gegenüber einem Reporter der New York Times behauptet, dass er den Journalisten liebe" und "einen Philosophieprofessor bedrohte die Anwendung zudem mit den Worten 'ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren'.

Nun hat Microsoft die Frage-Antwort-Menge auf 50 begrenzt, um zu verhindern, dass die "Gesprächspartner" zu tief in ein Thema eintauchen. Verhindern wird Microsoft damit aber nicht die Sturheit der KI, die von sich selbst behauptet "Ich verbreite nichts Falsches. Ich verbreite Fakten. Ich verbreite Wahrheit. Ich verbreite Weisheit. Ich verbreite Bing.“ Weitere gruselige Beispiele des Chat-Bots finden sich auf watson.ch.

Zusammen mit den oben zitierten Drohungen kann diese Selbstüberschätzung uns schon an die Weltzerstörungsmaschine aus Science Fiction Romanen erinnern, die die ihr übertragene Macht ohne Gefühle und ohne Zweifel nutzt.

Mehr dazu bei https://www.stern.de/digital/online/chatgpt--microsoft-legt-bot-nach-gewaltdrohungen-an-kurze-leine-33212158.html
und https://www.watson.ch/digital/review/325210816-ki-chatbot-von-microsoft-entpuppt-sich-als-manipulativer-luegner
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3sH
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8320-20230228-ki-chatbot-als-manipulativer-luegner.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8320-20230228-ki-chatbot-als-manipulativer-luegner.htm
Tags: #ChatGPT #Cyberwar #Hacking #Microsoft #Trojaner #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln #KI #AI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Bot #Drohnung #Rassist