KI-Chatbot als manipulativer Lügner
KI läuft Micrsoft aus dem Ruder
Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein.
Stephen Hawking
Schon vor einigen Jahren musste von Microsoft ein KI Programm namens Tay aus dem Verkehr gezogen werden, weil es sich nach wenigen Tage zum Rechtsextremisten entwickelte. Schon nach 16 Stunden twitterte Tay: "Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump."
Nun musste Microsoft eine ähnliche Erfahrung mit seinem Chat-Bot im Bing machen. Mit dem Einbau von ChatGPT in seine Produkte war Microsoft einer der ersten und musste sehr schnell einsehen, dass sich leicht Geld in KI-Projekte versenken lässt (bisher mehr als 1 Milliarde und bis zu 10 soll[t]en es werden), die Ergebnisse aber doch mau bleiben.
Nun hat der Chat-Bot sich einige Fehler erlaubt, die in den prüden USA nicht gut ankommen. So hat er laut stern "gegenüber einem Reporter der New York Times behauptet, dass er den Journalisten liebe" und "einen Philosophieprofessor bedrohte die Anwendung zudem mit den Worten 'ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren'.
Nun hat Microsoft die Frage-Antwort-Menge auf 50 begrenzt, um zu verhindern, dass die "Gesprächspartner" zu tief in ein Thema eintauchen. Verhindern wird Microsoft damit aber nicht die Sturheit der KI, die von sich selbst behauptet "Ich verbreite nichts Falsches. Ich verbreite Fakten. Ich verbreite Wahrheit. Ich verbreite Weisheit. Ich verbreite Bing.“ Weitere gruselige Beispiele des Chat-Bots finden sich auf watson.ch.
Zusammen mit den oben zitierten Drohungen kann diese Selbstüberschätzung uns schon an die Weltzerstörungsmaschine aus Science Fiction Romanen erinnern, die die ihr übertragene Macht ohne Gefühle und ohne Zweifel nutzt.
Mehr dazu bei https://www.stern.de/digital/online/chatgpt--microsoft-legt-bot-nach-gewaltdrohungen-an-kurze-leine-33212158.html
und https://www.watson.ch/digital/review/325210816-ki-chatbot-von-microsoft-entpuppt-sich-als-manipulativer-luegner
Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3sH
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8320-20230228-ki-chatbot-als-manipulativer-luegner.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8320-20230228-ki-chatbot-als-manipulativer-luegner.htm
Tags: #ChatGPT #Cyberwar #Hacking #Microsoft #Trojaner #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln #KI #AI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Bot #Drohnung #Rassist