#maschine

aktionfsa@diasp.eu

06.02.2024 Selbstherrliche KI

KI "wählt" Kinderschänder-Foto

Der irische Radiomoderator Dave Fanning fand sein Foto in einem Artikel des Hongkonger Verlags BNN. Eine KI Software von Microsoft soll sein Foto "zufällig" ausgewählt haben. Weder der Verlag noch Microsoft antworten auf Fragen zu dem Vorgang. Herr Fanning will nun klagen.

Allerdings gestaltet sich die Klage als schwierig, weil die beim High Court in Dublin abgegeben Klage nun in Hongkong und den USA zugestellt werden muss. Dazu muss der High Court die Zustellung der Klage im Ausland, bzw. außerhalb der EU genehmigen.

Heise.de berichtet über ähnlich selbstherrliche Entscheidungen von "künstlichen Intelligenzen". Demnach versagt Microsoft wiederholt bei der versprochenen menschlichen Aufsicht über seine Algorithmen.

Mehr dazu bei https://www.heise.de/news/KI-verleumdet-Unschuldigen-als-Kinderschaender-Klage-gegen-Microsoft-9598270.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3yQ
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8674-20240206-selbstherrliche-ki.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8674-20240206-selbstherrliche-ki.html
Tags: #Journalist #KI #AI #Big5 #Microsoft #Algorithmen #Missbrauch #Kinderschänder #Fotos #Auswahl #Copy #Paste #Entscheidungsgewalt #Mensch #Maschine #Irland #Honkong #Cyberwar #Hacking

aktionfsa@diasp.eu

KI-Unterstützung beim Programmieren gefährlich

KI liebt Copy&Paste

Heise.de berichtet über eine Studie von GitClear, der Hersteller des gleichnamigen Git-Analyse-Tools. GitClear hat 153 Millionen Zeilen Code, die zwischen Januar 2020 und Dezember 2023 auf GitHub geflossen sind, analysiert. "Das Ergebnis zeigt, dass die Code-Qualität im Jahr 2023 mit dem verstärkten Einsatz von KI-Coding-Assistenten abnimmt, und zwar insbesondere in Bezug auf das DRY-Prinzip (Don’t repeat yourself), sprich, es fließt mehr schnell erzeugter, aber bereits vorhandener Code in ein Projekt."

Das ist erstens lästig, weil es die Menge der zu betreuenden Software unnötig vergrößert. Weitaus schlimmer ist aber, das Vorliegen redundanter Programmteile, die in der Folge nur an einer Stelle gepflegt und verbessert werden. In der Zukunft kann das zu weiteren Problemen führen.

Aus dem zeitlichen Zusammenhang folgern die Autoren der Studie, dass die Probleme auf die Zunahme von Code durch KI-Assistenzprogramme zurückzuführen ist. So ist zwischen 2022 und 2023 in den Software Repositories insbesondere der Wert Moved um 17,3 Prozent zurückgegangen, während Copy und Paste um 11,3 Prozent stieg. Das führt aber im Ergebnis zu geringerer Effizienz des ganzen GitHub Projekts, da die Programmierer nur mehr Code zur Verfügung haben, aber keinen besseren.

Das Copy&Paste liegt daran, dass KI-Assistenten sich bisher "nicht trauen" vorhandenen Code zu löschen, sondern stets ihre Veränderungen hinzufügen. Das hat vielleicht auch seine Vorteile für das Funktionieren. Insoweit müssen wir noch nicht befürchten, dass eine KI ganze Projekte durch Unfähigkeit oder "Absicht" zerstören kann.

Langfristig muss jedoch über Alternativen nachgedacht werden, sonst steht man irgendwann vor dem Heuhaufen mit der vielleicht silbernen Stecknadel.

Mehr dazu bei https://www.heise.de/news/Schlechte-Code-Qualitaet-durch-die-KI-Assistenten-GitHub-Copilot-und-ChatGPT-9609271.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3yD
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8664-20240128-ki-unterstuetzung-beim-programmieren-gefaehrlich.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8664-20240128-ki-unterstuetzung-beim-programmieren-gefaehrlich.html
Tags: #KI #AI #Code #Generierung #ChatGPT #GitHub #GitClear #Copy #Paste #Entscheidungsgewalt #Mensch #Maschine #Übersichtlichkeit #Cyberwar #Hacking

aktionfsa@diasp.eu

19.01.2024 KI in der Kriegsführung

Verbot von Waffenentwicklung mit ChatGPT aufgehoben

"Don't use our service to harm yourself or others." So steht es jetzt in den AGB von ChatGPT von OpenAI. Bis zum 10. Januar 2024 war die Distanzierung von der militärischen Nutzung von KI viel deutlicher. Da hieß es noch

"nutz unsere Dienste nicht, um Selbstmord oder Selbstverletzungen zu bewerben, Waffen zu entwickeln, andere oder das Eigentum anderer zu verletzen oder um dich an nicht autorisierten Aktivitäten zu beteiligen, die die Sicherheit von anderen oder anderen Systemen gefährden."

Wie gefährlich KI-gesteuerte Militärtechnik sein kann, zeigt schon ein Szenario, das in den Drohneneinsätzen des US Militär häufig geschieht. Die Drohnen sind so programmiert (noch ganz ohne KI), dass sie bei Verlust der Kommunikation zur Bodenstation zum Startflugplatz zurück zu kehren haben. Wenn sie diesen anfliegen, könnten sie aber auch gehackt sein und diesen Standort angreifen wollen. Mindestens der Adrenalinspiegel der dort Stationierten geht beim Anflug in die Höhe.

KI darf keine Entscheidungen über Leben und Tod treffen

Grundsätzlich sollten Menschen stets die Entscheidungsgewalt über Maschinen behalten. Das sollte eine notwendige Forderung sein, aber sie ist nicht hinreichend. Allein schon die Datenflut, mit der Computerprogramme und erst recht solche mit KI die Menschen überfordern, birgt die Gefahr, dass auch die menschlichen Entscheidungen nicht mehr auf einer rationalen Ebene fallen, sondern manipuliert sein können.

Ganz grundsätzlich darf nach unserer Ansicht KI nicht für militärische Zwecke und die Überwachung von Menschen, z.B. bei Anwendungen der "kritischen Infrastruktur" oder Strafverfolgung (PreCrime) verwendet werden.

Mehr dazu bei https://www.heise.de/news/ChatGPT-fuer-das-Militaer-OpenAI-aendert-Verbots-Passus-9596604.html
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3yu
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8655-20240119-ki-in-der-kriegsfuehrung.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8655-20240119-ki-in-der-kriegsfuehrung.html
Tags: #KI #AI #Kriegsführung #ChatGPT #AGB #Militärtechnik #Entscheidungsgewalt #Mensch #Maschine #Drohnen #Frieden #Krieg #Menschenrechte #Zivilklauseln #Cyberwar #Hacking

deutschewelle@squeet.me

Ethikrat: Künstliche Intelligenz darf den Menschen nicht ersetzen | DW | 20.03.2023

Der deutsche Ethikrat plädiert in einer neuen Studie zum Verhältnis von Mensch und Maschine für einen regulierten Einsatz von KI, je nachdem in welchem Bereich.#KünstlicheIntelligenz #KI #Ethikrat #Maschine #Mensch
Ethikrat: Künstliche Intelligenz darf den Menschen nicht ersetzen | DW | 20.03.2023

raschmi@pod.geraspora.de

#Umverpackung

… ist manchmal sinnvoll!

Möchte ich eine #Maschine transportieren, welche mit extrem giftigen und gefährlichem Material betrieben wird, bei dem man #Gefahr läuft dieses zu verlieren, dann hätte ich zwei #Optionen:

  1. Ich verpacke die ganze Maschine in eine sichere Kiste oder in einen #Container oder ähnliches
  2. Ich entferne das giftige Zeugs vor dem #Transport und packe es in ein Glasröhrchen und dieses in einen sehr stabilen Koffer mit viel #Schaumstoff und #Blei

Die Australier haben noch eine dritte Option:
Sie packen es einfach so auf einen #LKW und verlieren es irgendwo auf dem Weg von A nach B

https://www.tagesschau.de/ausland/ozeanien/australien-radioaktive-kapsel-101.html

Die Chance, dass die #Menschheit überlebt wird von #Idiot zu Idiot geringer )-: