#vooroordelen

berternste2@diasp.nl

Artificial intelligence is niet intelligent

NRC

Kunstmatige intelligentie - De chatbot zelf is niet gevaarlijk, schrijft Vincent Icke. De baas ervan des te meer. (...)

De AI zoals die wordt ontwikkeld door Big Tech is een brutale manier om klanten uit te buiten. (...)

(Tekst loopt door onder de foto.)

Foto van schaakpartij tegen computer
Schaakkampioen Garry Kasparov verloor in 1997 een wedstrijd schaken tegen een IBM-supercomputer. Foto Peter Morgan / Reuters.

Een besluit berust op overweging, en AI overweegt niets: het speurt in bergen gegevens naar patronen. Je kunt zo’n patroon gebruiken voor verdere studie, en op grond daarvan een besluit nemen of advies geven, maar dat is iets anders dan een zelfstandige beslissing van een algoritme. (...)

De overeenkomst tussen het vallen van een appel en de beweging van de maan zou geen AI-algoritme ooit zijn opgevallen, maar Newton wel. (...)

Dat AI geen intelligentie is, blijkt ook uit het feit dat er met het systeem geen communicatie mogelijk is. Met een echte intelligentie kun je in discussie, zelfs (tot op zekere hoogte) als het een cavia betreft. Met een algoritme kan dat niet: daaraan moet je je onderwerpen of het zijn plaats wijzen. (...)

Als AI iets oplevert, is meestal niet te achterhalen hoe die uitkomst is verkregen. De betrouwbaarheid van dat resultaat is dus nauwelijks te bepalen. (...)

Om echt iets te begrijpen is AI nutteloos en soms zelfs tegenproductief, maar het kan wel bijzonder gevaarlijk zijn, getuige de verwoestende invloed van AI op sociale media (er zijn zeer strikte wetten en regels voor het omgaan met explosieven, maar niet voor AI-algoritmen). Ironisch genoeg is dat een koekje van eigen deeg, want die AI is ‘getraind’ met onze vooroordelen, blinde vlekken en talloze andere tekortkomingen. Omdat er verder geen moreel of analytisch besef in zit, is AI bovendien nog beperkter dan wijzelf. (...)

De chatbot is nauwelijks gevaarlijk, maar de baas ervan des te meer: zoals Big Tech, Poetins huurlingen, of de minions van de Communistische Partij van China.

„Waar het om draait is: wie is de baas – dat is alles.” Dat zei Humpty Dumpty in Alice in Wonderland, een product van zoveel intelligentie dat het nooit door een chatbot zal worden geschreven, al zou het algoritme draaien op ’s werelds snelste supercomputer.

Hele artikel

> Zie ook: Het tomeloze technologische vooruitgangsoptimisme (NRC)

Tags: #nederlands #technologie #vooruitgangsgeloof #ai #artificial_intelligence #kunstmatige_intelligentie #chatgpt #democratie #gemeenschap #big_tech #monopolie #klimaat #klimaatcrisis #zingeving #vooroordelen

berternste2@diasp.nl

AI ziet vrouwen al snel als lustobjecten

Ilyaz Nasrullah (Trouw)

De Britse krant The Guardian kwam een week geleden met een onthulling. Ze had de werking getest van AI-tools die beoordelen hoe ‘pikant’ een foto is. Het blijkt dat deze tools – van onder andere Google en Microsoft – vrouwenlichamen veel eerder als lustobject zien dan mannenlichamen. (...)

Vaak wordt er geroepen dat al deze problemen opgelost kunnen worden met ‘betere data’. Het idee is dat AI-systemen ‘eerlijker’ zullen zijn als zij getraind worden met data die geen vooroordelen bevatten. Was het maar zo simpel. Als ‘betere data’ echt de oplossing is, hoe ontstaan dan de blijkbaar ‘slechte data’ die nu worden gebruikt? In het sociale domein geldt helaas dat problematische data een product zijn van een problematische samenleving. (...)

(Tekst loopt door onder de foto.)

Foto van Ilyaz Nasrullah
Ilyaz Nasrullah

Als u bijvoorbeeld het woord ‘pornoster’ leest, dan komt waarschijnlijk het beeld van een vrouw in u op. Die associatie zegt niets over u, maar hangt wel samen met het feit dat vrouwen veel sneller en veel liever als lustobject worden gezien in de samenleving dan mannen. (...)

Wat dat betreft is AI als een spiegel die ons zonder blikken of blozen de lelijkheid laat zien die in de samenleving zit.

Dat wil overigens niet zeggen dat AI-technologie vrijuit gaat. Integendeel, een inherent probleem van AI is een gebrek aan contextueel begrip, waardoor het vooroordelen versterkt en verergert.

Zo liet The Guardian een serie foto’s zien van een witte man in spijkerbroek met ontbloot bovenlijf. De eerste foto’s, waarop alleen de man te zien is, kregen een ‘pikantheidsscore’ van ongeveer 20 procent. In de volgende foto’s houdt dezelfde man een zwarte beha in zijn handen. De score schoot hierdoor omhoog naar maar liefst 99 (!) procent. Dankzij het wonder van innovatie hebben we nu dus AI met een lingeriefetisj. Deze tools hebben deze fetisj zelf ontwikkeld door beha’s te leren herkennen uit foto’s van vrouwen (die door mensen als pikant gelabeld zijn).

Dit soort problemen worden niet zomaar even opgelost met ‘betere data’. AI-technologie is gewoon te onvolwassen voor het sociale domein. En het sociale domein is eigenlijk ook niet klaar voor deze technologie. Die observatie is pas echt pikant.

Hele artikel

Tags: #nederlands #ai #artificial_intelligence #kunstmatige_intelligentie #algoritme #vooroordelen #context #pikante_foto #lustobject #pornoster #lingerie #lingeriefetish #sociale_media #social_media #sociale_domein