#artificial_intelligence

berternste2@diasp.nl

‘Surveillance is een vast onderdeel van ons leven geworden, en dat zal alleen maar toenemen’

Vrij Nederland (Alleen vandaag gratis)

‘Vroeger was er eerst een verdenking en dan volgde de surveillance, nu is er eerst surveillance en volgen pas daarna de verdenkingen,’ zegt bijzonder hoogleraar Digital Surveillance Mark Schuilenburg. (...)

(Tekst loopt door onder de foto.)

Foto van Mark Schuilenburg
Mark Schuilenburg

Waze is volgens Schuilenburg een voorbeeld van een technologie die met behulp van Artificiële Intelligentie (AI) en algoritmes ons gedrag subtiel een bepaalde richting op stuurt. (...)

‘Mentale sturing en beïnvloeding worden voor techbedrijven steeds belangrijker, vooral op het gebied van veiligheid en gezondheid. Niet alleen het lichaam, maar ook de psyche, de geest, moet worden gestuurd. Dat is inderdaad anders dan de vlieg in het urinoir, omdat het gebeurt met enorme hoeveelheden data, en het voortdurend te personaliseren is. Bij een verkeersdrempel moet iedereen langzamer rijden, terwijl psychomacht op maat kan worden gesneden, via microtargeting, of doordat het de ene Facebookgebruiker bepaalde berichten laat zien die bij anderen niet of in andere vorm op hun tijdlijn verschijnen. Of dus bij een app als Waze.’

U plaatst Waze in hetzelfde rijtje als de Apple Watch en de digitale deurbel van Amazon.
‘Ik noem dat soort producten luxe-surveillance. Mensen willen zichzelf tegenwoordig monitoren en zijn bereid daarvoor te betalen. Dat is interessant. Surveillance werd altijd gezien als iets dat vanuit de staat kwam. Daar komen ook alle dystopische verhalen – China, Orwell – vandaan. Met luxe-surveillance zie je dat mensen zelf een flinke som geld neerleggen om zichzelf vrijwillig te bekijken. Dat illustreert de overgang van disciplinaire naar psychomacht.’ (...)

In de jaren negentig vernetwerkte surveillance. De camera’s op straat werden met elkaar verbonden en daardoor is de controle overal. Nu, in fase drie, zijn bewakingscamera’s uitgerust met AI en algoritmes, denk aan automatische gezichtsherkenningstechnologie. (...)

‘Surveillance is een vast onderdeel van ons leven geworden, en dat zal alleen maar toenemen. Je ziet dan ook dat surveillance met AI en algoritmes niet meer alleen wordt ingezet door de politie, maar ook daarboven, door organisaties als Europol, daarbeneden, wanneer burgers patrouilleren in de wijk en apps als Veiligebuurt of Citizen gebruiken, en ernaast, doordat techbedrijven als Amazon en Google de zorg voor veiligheid steeds vaker faciliteren door slimme apparaten met ingebouwde camera’s, microfoons en trackingsapparatuur te ontwikkelen.’ (...)

En dat is nou precies waar het nieuwe boek van Schuilenburg, Making Surveillance Public. Why You Should Be More Woke about AI and Algorithms, over gaat.

Want technologie wordt nog te vaak ontworpen en ingezet vanuit een ‘technologisch-economisch’ perspectief, vindt hij, waarin publieke waarden als privacy, non-discriminatie, transparantie en het nemen van verantwoordelijkheid (accountability) het afleggen tegen waarden als veiligheid en efficiëntie. (...)

‘Veel mensen herkennen de Apple Watch, Fitbit en Amazon-deurbel niet als surveillance.’ (...)

Hele artikel

Tags: #nederlands #boeken #privacy #gezichtsherkenning #clearview #facebook #google #surveillance #massasurveillance #surveillance_kapitalisme #algoritme #ai #artificial_intelligence #kunstmatige_intelligentie #waze #algoritme #nudging #amazon #apple #slimme_deurbel #gezichtsherkenning #veiigebuurt #citizen #tracking #fitbit

berternste2@diasp.nl

Misleidende botshit vraagt om alertheid in het cruciale verkiezingsjaar 2024

NRC

Kunstmatige intelligentie - Juist nu in 2024 wereldwijd een recordaantal mensen naar de stembus mag, dreigt AI-gegenereerde nepinformatie het stemproces te verstoren, schrijft Sander Duivestein. (...)

(Tekst loopt door onder de foto.)

Foto van stemhokje
Foto Money Sharma/AFP

De nepfoto van Timmermans illustreert de mogelijke impact die generatieve AI op de politiek kan hebben in de nabije toekomst. Experts hebben al meerdere malen gewaarschuwd voor de gevolgen voor verkiezingsprocessen. Zo kan AI gebruikt kan worden om nepnieuws met gemak en tegen minimale kosten te produceren, en kan de technologie ingezet worden om doelgerichte advertenties te genereren die bedoeld zijn om het keuzeproces van kiezers te beïnvloeden. (...)

Belangrijke verkiezingen staan gepland in onder meer Taiwan, India, Rusland, Zuid-Afrika, Mexico, Iran, Pakistan, Indonesië, lidstaten van de Europese Unie, het Verenigd Koninkrijk en de Verenigde Staten. Deze verkiezingen zijn niet alleen belangrijk voor de landen zelf, maar ook voor de wereldwijde politieke orde. Zelfs kleinere verkiezingen, zoals die in Noord-Macedonië, hebben invloed op dit mondiale politieke landschap. (...)

Waar sociale media al een grote rol spelen bij verkiezingen, is de verwachting dat nieuwe generatieve AI-technologieën nog meer invloed zullen uitoefenen. (...)

In de jaren 2010 gaven politici miljoenen uit aan sociale media om hun verkiezingscampagnes kracht bij te zetten. Nu maakt generatieve AI het mogelijk om nagenoeg kosteloos misleidende informatie te produceren.

Dit is zorgwekkend omdat we in het afgelopen decennium meerdere malen gezien hebben welke rol ‘onzin’ kan spelen in de politiek. In zijn boek On Bullshit (2005) stelt de Amerikaanse filosoof Harry G. Frankfurt dat flauwekul gevaarlijker is dan leugens, omdat het de waarheid volledig negeert. (...)

Dankzij de doorbraak van generatieve AI-technologieën, zoals ChatGPT en Midjourney, is het nu kinderlijk eenvoudig om nepnieuws op grote schaal te genereren en te verspreiden. Wetenschappers spreken in recent onderzoek over „botshit”, een term die het massaal verspreiden van bullshit via bots aanduidt. Een van de auteurs van het onderzoek, de Nieuw-Zeelandse hoogleraar organisatiekunde André Spicer, zette het gevaar vorige week uiteen in The Guardian. (...)

Terwijl steeds meer van wat op het internet belandt door AI gegenereerd zal zijn - één expert gaat zelfs uit van 90 procent in 2025 - wordt het steeds belangrijker dat wij, als samenleving, de vaardigheden ontwikkelen om echt van nep te onderscheiden. (...)

Met een gezonde dosis scepsis en de juiste tools die AI-materiaal signaleren, kunnen we ervoor zorgen dat onze keuzes en overtuigingen worden gevormd door feiten en niet door botshit.

Hele artikel

Tags: #nederlands #ai #artificial_intelligence #kunstmatige_intelligentie #ChatGPT #Midjourney #botshit #internet #desinformatie #nepnieuws #nepinformatie #fake_news #democratie #verkiezingen #journalsitiek #journalist #media #sociale_media #social_media

berternste2@diasp.nl

Why AI is a disaster for the climate

The Guardian

Amid all the hysteria about ChatGPT and co, one thing is being missed: how energy-intensive the technology is. (...)

Given the current hysteria about AI, I thought I’d check to see where it is on the chart [of the Gartner Hype Cycle]. (...)

(Text continues underneath the photo.)

Photo of battery of plugged network cables
The carbon footprint of server farms used to power generative AI could be problematic. Photograph: Bloomberg/Getty Images.

All of this serves the useful function – for the tech industry, at least – of diverting attention from the downsides of the technology that we are already experiencing: bias, inscrutability, unaccountability and its tendency to “hallucinate”, to name just four. (...) Which is worrying because its environmental impact will, at best, be significant and, at worst, could be really problematic.

How come? Basically, because AI requires staggering amounts of computing power. And since computers require electricity, and the necessary GPUs (graphics processing units) run very hot (and therefore need cooling), the technology consumes electricity at a colossal rate. (...)

So maybe the best hope for the planet would be for generative AI to topple down the slippery slope into Gartner’s “trough of disillusionment”, enabling the rest of us to get on with life.

Complete article

Tags: #artificial_intelligence #ai #chatgtp #computing #energy #energy_transition #carbon_footprint #climate #climate_change #climate_crisis #global_warming

berternste2@diasp.nl

Op zoek naar een alternatief? Jitsi.

Weer rel over privacy bij gebruik videovergaderdienst Zoom

NRC

Kunstmatige intelligentie - Door een aanpassing van de gebruiksvoorwaarden zou Zoom klantgegevens en de inhoud van gesprekken kunnen gebruiken om zijn AI-systemen te trainen.

(Tekst loopt door onder de foto.)

Foto van studenten in klas
Een college van de universiteit van Chicago wordt deels gevolgd via Zoom. Foto Erin Hooley/Chicago Tribune/TNS.

Aanpassing van zijn gebruiksvoorwaarden is videovergaderdienst Zoom opnieuw op forse kritiek komen te staan. Het bedrijf zou volgens privacy-experts gegevens van individuele klanten en de inhoud van videogesprekken en chats gebruiken om zijn AI-systemen (kunstmatige intelligentie) te trainen.

Onder de nieuwe voorwaarden geven gebruikers Zoom een „eeuwigdurende en wereldwijde licentie” om klantgegevens te gebruiken. (...)

De onrust over Zooms privacyvoorwaarden is goed te verklaren. Over hoe de nieuwste AI-diensten, zoals chatbots ChatGPT en Google Bard, aan hun informatie komen, bestaat veel onduidelijkheid. De onderliggende taalmodellen die de chatbots gebruiken, worden getraind met grote databestanden op internet. Kunstenaars, muzikanten en media voeren de laatste maanden rechtszaken tegen AI-bedrijven om te voorkomen dat hun intellectuele eigendom hierbij wordt geschonden. (...)

Zooms probleem: het heeft de schijn tegen. Het bedrijf worstelt met een slechte reputatie op het gebied van privacy sinds de dienst uit het niets succesvol werd tijdens de coronapandemie. Het bedrijf van de Amerikaanse oprichter Eric Yuan groeide tijdens de pandemie zo hard dat de tijd ontbrak om snel Zooms vergaderingen versleuteld aan te bieden. (...)

In 2021 trof het bedrijf voor 86 miljoen dollar een schikking met een groep gebruikers. Zij beschuldigden Zoom van het delen van persoonsdata met Facebook, LinkedIn en Google. (...)

Hele artikel

Tags: #nederlands #zoom #videovergaderdienst #privacy #data #gegevens #klantgegevens #kunstmatige_intelligentie #ai #artificial_intelligence #gebruiksvoorwaarden #jitsi

berternste2@diasp.nl

Klöpping, Harari en andere prominenten zijn in AI-fuik gelopen

Ilyaz Nasrullah (Trouw)

De hersenloze hype rond woordenspuger ­ChatGPT neemt sektarische vormen aan. Vorige week donderdag nog joeg media-ondernemer en AI-prediker Alexander Klöpping de kijkers van talkshow Op1 de stuipen op het lijf met een wild verhaal dat de aanstaande superintelligentie van GPT aan zou moeten tonen. ­(...)

Dit hysterische gehype van kunst­matige ‘intelligentie’ (AI) is gevaarlijker dan AI zelf. (...)

(Tekst loopt door onder de foto.)

Foto van Ilyaz Nasrullah
Ilyaz Nasrullah

Toen Klöpping op sociale media aangesproken werd op zijn misrepresentatie van GPT-4, werd ook duidelijk hoe diep hij gevallen is voor de AI-hype. Klöpping gaf aan dat het weliswaar niet verliep zoals hij zei, maar dat het hem ‘zeer zou verbazen’ als GPT-4 het inhuren van mensen ‘niet zelf zou kunnen verzinnen’. Eigen onwetendheid tot argument verheven.

Dit fantasierijke geloof in ‘supermenselijke’ AI gaat hand in hand met een ongefundeerde angst, namelijk dat AI tot de uitroeiing (!) van de mensheid kan leiden. (...)

Zo stond de wereldberoemde historicus Yuval Noah Harari afgelopen weekend in The New York Times met een dubieus essay over dit onderwerp. Harari wappert daar met een enquête die stelt dat de helft van zo’n 700 AI-onderzoekers de kans op menselijke uitroeiing door AI op 10 procent schat. (...) Wat een onzin.

Als deze onderzoekers dit écht geloven, waarom ontwikkelen zij dan al jarenlang deze technologie? Welk voordeel kan AI in vredesnaam hebben dat opweegt tegen de mogelijke uitroeiing van de mensheid? (...)

Natuurlijk kleven er risico’s aan AI. Dat zijn alleen geen existentiële risico’s, maar onmiddellijke risico’s zoals misinformatie, fraude en – zoals de angstporno van Harari laat zien – helaas ook het verlies van gezond verstand. Het is daarom belangrijk dat we het publieke debat over AI op basis van feiten voeren.

Vandaar deze oproep aan alle media: pak jullie verantwoordelijkheid en nodig voor duiding echte AI-deskundigen uit, Nederland heeft er genoeg.

Hele artikel

Tags: #nederlands #ai #artificial_intelligence #kunstmatige_intelligentie #klopping #klöpping #harari #­­ChatGPT #GPT-4 #yuval_harari

berternste2@diasp.nl

Artificial intelligence is niet intelligent

NRC

Kunstmatige intelligentie - De chatbot zelf is niet gevaarlijk, schrijft Vincent Icke. De baas ervan des te meer. (...)

De AI zoals die wordt ontwikkeld door Big Tech is een brutale manier om klanten uit te buiten. (...)

(Tekst loopt door onder de foto.)

Foto van schaakpartij tegen computer
Schaakkampioen Garry Kasparov verloor in 1997 een wedstrijd schaken tegen een IBM-supercomputer. Foto Peter Morgan / Reuters.

Een besluit berust op overweging, en AI overweegt niets: het speurt in bergen gegevens naar patronen. Je kunt zo’n patroon gebruiken voor verdere studie, en op grond daarvan een besluit nemen of advies geven, maar dat is iets anders dan een zelfstandige beslissing van een algoritme. (...)

De overeenkomst tussen het vallen van een appel en de beweging van de maan zou geen AI-algoritme ooit zijn opgevallen, maar Newton wel. (...)

Dat AI geen intelligentie is, blijkt ook uit het feit dat er met het systeem geen communicatie mogelijk is. Met een echte intelligentie kun je in discussie, zelfs (tot op zekere hoogte) als het een cavia betreft. Met een algoritme kan dat niet: daaraan moet je je onderwerpen of het zijn plaats wijzen. (...)

Als AI iets oplevert, is meestal niet te achterhalen hoe die uitkomst is verkregen. De betrouwbaarheid van dat resultaat is dus nauwelijks te bepalen. (...)

Om echt iets te begrijpen is AI nutteloos en soms zelfs tegenproductief, maar het kan wel bijzonder gevaarlijk zijn, getuige de verwoestende invloed van AI op sociale media (er zijn zeer strikte wetten en regels voor het omgaan met explosieven, maar niet voor AI-algoritmen). Ironisch genoeg is dat een koekje van eigen deeg, want die AI is ‘getraind’ met onze vooroordelen, blinde vlekken en talloze andere tekortkomingen. Omdat er verder geen moreel of analytisch besef in zit, is AI bovendien nog beperkter dan wijzelf. (...)

De chatbot is nauwelijks gevaarlijk, maar de baas ervan des te meer: zoals Big Tech, Poetins huurlingen, of de minions van de Communistische Partij van China.

„Waar het om draait is: wie is de baas – dat is alles.” Dat zei Humpty Dumpty in Alice in Wonderland, een product van zoveel intelligentie dat het nooit door een chatbot zal worden geschreven, al zou het algoritme draaien op ’s werelds snelste supercomputer.

Hele artikel

> Zie ook: Het tomeloze technologische vooruitgangsoptimisme (NRC)

Tags: #nederlands #technologie #vooruitgangsgeloof #ai #artificial_intelligence #kunstmatige_intelligentie #chatgpt #democratie #gemeenschap #big_tech #monopolie #klimaat #klimaatcrisis #zingeving #vooroordelen

berternste2@diasp.nl

Het tomeloze technologische vooruitgangsoptimisme

Beatrice de Graaf (NRC)

Kunstmatige intelligentie wordt met veel te veel optimisme gepresenteerd, vindt Beatrice de Graaf. Er is geen tijd meer voor reflectie. (...)

Onlangs hief de ceo van OpenAI, Sam Altman, weer een loflied aan op de transitie naar een volledig AI-geleide wereld. Iedereen zou ervan profiteren. (...)

AI is onstuitbaar. En AI brengt ons reeds tal van voordelen. (...) Maar dat is niet het punt. Want we leven niet bij statistieken en generalisaties alleen.

Het echte, grote probleem met uitlatingen zoals die van Altman, en het tomeloze vooruitgangsoptimisme dat eruit spreekt, wordt te weinig benoemd. Dat is dat het de geschiedenis van de mensheid ontkent. En wel op drie manieren.

(Tekst loopt door onder de foto.)

foto van Beatrice de Graaf
Beatrice de Graaf

Ten eerste gaan de ontwikkelingen zo snel, en worden ze door mensen als Altman bewust met die onstuimigheid voortgedreven, dat er geen tijd en ruimte meer is voor reflectie. (...)

Anderen dan ik hebben reeds veel beter en overtuigender uitgelegd dat de grootste fouten van AI al in het design worden gemaakt. Daarop qua tijd of regulering bezuinigen en bochtjes afsnijden, levert later grote ellende op (het ‘Jurassic-park-argument’).

Ten tweede is er noch sprake van een vrije markt waarin eerlijk wordt geconcurreerd om de beste toepassingen, noch is er sprake van een vrije deliberatieve ruimte om hier open en zonder last of ruggenspraak afwegingen over te kunnen maken. Jürgen Habermas legt dat in zijn laatste boek, Ein neuer Strukturwandel der Öffentlichkeit (2022), haarfijn en messcherp uit. (...)

Ten derde kan ChatGPT nog zoveel kennis over de geschiedenis formuleren, de inzichten uit die geschiedenis kan het niet zelf ter harte nemen. Moraal en zingeving zijn zaken die we niet aan markt of machine moeten overlaten. Dat is iets van de gemeenschap als geheel. Die moet erkennen dat monopoliemacht corrumpeert. Dat de publieke zaak is gediend bij meer dan alleen vooruitgang en groei. Dat het klimaat ook een stem heeft. En dat technologische vooruitgang zonder democratische en sociale checks and balances ongelijkheid en vervreemding vergroot. (...)

De VN riep twee jaar geleden al op tot een moratorium op verkoop en gebruik van AI-systemen totdat er voldoende juridische en democratische waarborgen zijn ingevoerd. Wat is daarvan terechtgekomen? (...)

Hele artikel

Tags: #nederlands #technologie #vooruitgangsgeloof #ai #artificial_intelligence #kunstmatige_intelligentie #chatgpt #democratie #gemeenschap #big_tech #monopolie #klimaat #klimaatcrisis #zingeving

berternste2@diasp.nl

AI ziet vrouwen al snel als lustobjecten

Ilyaz Nasrullah (Trouw)

De Britse krant The Guardian kwam een week geleden met een onthulling. Ze had de werking getest van AI-tools die beoordelen hoe ‘pikant’ een foto is. Het blijkt dat deze tools – van onder andere Google en Microsoft – vrouwenlichamen veel eerder als lustobject zien dan mannenlichamen. (...)

Vaak wordt er geroepen dat al deze problemen opgelost kunnen worden met ‘betere data’. Het idee is dat AI-systemen ‘eerlijker’ zullen zijn als zij getraind worden met data die geen vooroordelen bevatten. Was het maar zo simpel. Als ‘betere data’ echt de oplossing is, hoe ontstaan dan de blijkbaar ‘slechte data’ die nu worden gebruikt? In het sociale domein geldt helaas dat problematische data een product zijn van een problematische samenleving. (...)

(Tekst loopt door onder de foto.)

Foto van Ilyaz Nasrullah
Ilyaz Nasrullah

Als u bijvoorbeeld het woord ‘pornoster’ leest, dan komt waarschijnlijk het beeld van een vrouw in u op. Die associatie zegt niets over u, maar hangt wel samen met het feit dat vrouwen veel sneller en veel liever als lustobject worden gezien in de samenleving dan mannen. (...)

Wat dat betreft is AI als een spiegel die ons zonder blikken of blozen de lelijkheid laat zien die in de samenleving zit.

Dat wil overigens niet zeggen dat AI-technologie vrijuit gaat. Integendeel, een inherent probleem van AI is een gebrek aan contextueel begrip, waardoor het vooroordelen versterkt en verergert.

Zo liet The Guardian een serie foto’s zien van een witte man in spijkerbroek met ontbloot bovenlijf. De eerste foto’s, waarop alleen de man te zien is, kregen een ‘pikantheidsscore’ van ongeveer 20 procent. In de volgende foto’s houdt dezelfde man een zwarte beha in zijn handen. De score schoot hierdoor omhoog naar maar liefst 99 (!) procent. Dankzij het wonder van innovatie hebben we nu dus AI met een lingeriefetisj. Deze tools hebben deze fetisj zelf ontwikkeld door beha’s te leren herkennen uit foto’s van vrouwen (die door mensen als pikant gelabeld zijn).

Dit soort problemen worden niet zomaar even opgelost met ‘betere data’. AI-technologie is gewoon te onvolwassen voor het sociale domein. En het sociale domein is eigenlijk ook niet klaar voor deze technologie. Die observatie is pas echt pikant.

Hele artikel

Tags: #nederlands #ai #artificial_intelligence #kunstmatige_intelligentie #algoritme #vooroordelen #context #pikante_foto #lustobject #pornoster #lingerie #lingeriefetish #sociale_media #social_media #sociale_domein

berternste2@diasp.nl

De echte dreiging voor democratieën? De invloed van technologie, aldus techcriticus Jamie Susskind.

NRC

Interview | Jamie Susskind - Mensen zijn niet perfect. Dus hoe kan je erop vertrouwen dat softwareontwikkelaars technologie ontwikkelen die mensen en democratieën dient? Hoog tijd om na te denken over betere controle. (...)

Het grootste probleem van dit digitale tijdperk is níét dat de grote technologiebedrijven lak hebben aan onze privacy. De echte dreiging voor ons, en onze democratieën, is breder. Namelijk: dat Google, Meta, Amazon en de andere grote techbedrijven een enorme politieke factor zijn geworden, terwijl ze nauwelijks ter verantwoording te roepen zijn. (...)

(Tekst loopt door onder de illustratie.)

Illustratie

Hij geeft zelf een krachtige voorzet, inclusief praktische suggesties, in zijn vorig jaar verschenen boek The Digital Republic; On Freedom and Democracy in the 21st Century.

Susskind richt zijn pijlen niet in de eerste plaats op de techreuzen of op de topmannen die het daar voor het zeggen hebben. Hij spreekt over „ons gemeenschappelijke falen” om technologie in goede banen te leiden. „Veel te lang hebben we digitale technologieën bekeken vanuit de optiek: wat hebben we er als consument aan, of wat is de commerciële waarde ervan? Ik vind dat we er in politieke termen over moeten denken.” (...)

„Nu gaan we een tijdperk in waarin technologie [bijv. ChatGPT] politieke betogen kan opstellen. Sneller, en soms beter, dan de gemiddelde mens dat kan. Dat vind ik nogal een wezenlijke verandering voor onze democratie.” (...)

„Straks hebben we het niet meer over door technologie geschreven regels op een pagina, maar over door AI gegenereerde gezichten en stemmen die overtuigend zijn. Ze kunnen er zelfs op worden toegesneden om speciaal aantrekkelijk te zijn voor de specifieke persoon die ernaar kijkt.

„Daarom zeg ik: het digitale is politiek.” (...)

„[Software engineers] oefenen macht uit over ons leven. Ze reguleren de informatie die via digitale systemen over de wereld wordt verspreid. De algoritmes die ze schrijven, kunnen invloed hebben op het functioneren van de democratie en op kwesties van sociale rechtvaardigheid: op de toewijzing van woningen, de vaststelling van verzekeringspremies of het functioneren van ons strafrechtelijk systeem. Als je regels schrijft die miljoenen mensen moeten volgen, dan is dat politiek – ook al komt er geen parlement aan te pas.” (...)

„Bij artsen, advocaten, bankiers en exploitanten van kerncentrales vertrouwen we er ook niet zomaar op dat ze de juiste beslissingen nemen. Zij moeten voldoen aan normen en regels, omdat we weten dat mensen, en de instellingen die ze oprichten, niet perfect zijn.” (...)

„Je zou van digitale systemen bovendien kunnen eisen dat ze gecertificeerd zijn, zodat je ervan op aan kan dat ze aan bepaalde normen voldoen en je data er veilig zijn. Als je een gebouw binnenloopt, word je ook niet geacht zélf de kwaliteit van de architectuur te inspecteren. Je mag ervan uitgaan dat het veilig is en dat daarop is toegezien. Als je in een auto stapt, kan je er ook van op aan dat hij is goedgekeurd. Ik zie niet in waarom zo’n certificatie niet ook geregeld kan worden voor kunstmatige intelligentie of andere krachtige digitale technologieën.” (...)

Hele artikel

Omslag boek

Tags: #nederlands #boeken #technologie #ai #artificial_intelligence #kunstmatige_intelligentie #politiek #democratie #big_tech #tenologiebedrivn #regulering #algoritme #haatzaaien #google #alphabet #meta #facebook #apple #microsoft #twitter #amazon #social_media #software #softwareontwikkelaar #chatgpt #zoekmachine #data #big_data

berternste@pod.orkz.net

We moeten af van de term ‘kunstmatige intelligentie’, want een chatbot is zeker niet intelligent

Ilyaz Nasrullah (Trouw)

U zou denken dat ik rijp was voor de psychiater als ik zou zeggen dat ik een chatbot leerde mediteren. Ik was dan ook verbaasd dat The Washington Post twee weken geleden het podium gaf aan Blake Lemoine. Lemoine is een medewerker van Google die (op eigen initiatief) transcendentale meditatie probeerde bij te brengen aan LaMDA, een kunstmatig intelligente chatbot van dat bedrijf. (...) Waarom besteedt zo’n prominente krant aandacht aan iemand bij wie duidelijk een steekje los zit?

Dat heeft te maken met de fantasievolle claim van Lemoine. Hij beweert dat LaMDA zelfbewust geworden is. (...)

[D]e claim van Lemoine is onzin. Zelfbewuste AI-programma’s bestaan niet. (...) Om verwarring hierover te voorkomen, is het tijd om afscheid te nemen van de term ‘kunstmatige intelligentie’. Met ‘intelligentie’ heeft deze technologie weinig te maken. (...)

Wij praten met zo’n chatbot, maar die chatbot praat niet met ons. Wel reageert de chatbot op wat wij zeggen, waardoor de illusie van een gesprek ontstaat. (...)

De technologie is zeker ingewikkeld, maar dus niet intelligent. En zelfbewust al helemaal niet. Toch hebben we iets te vrezen van chatbots zoals LaMDA, want door deze technologie vervaagt de grens tussen echt en nep wéér een stukje meer. (...)

AI21 Labs heeft deze chatbot gemaakt op basis van Ginsburgs juridische teksten. De misvatting van het bedrijf is dat deze chatbot daarom vragen beantwoordt zoals Ginsburg zou doen. (...)

Ik hoop dat u na het lezen van deze column begrijpt dat als deze chatbot écht intelligent was, het maar op één manier zou antwoorden: “Waarom stel je deze vraag aan een chatbot, idioot?!”

Hele artikel

Foto van Ilyaz Nasrullah
Ilyaz Nasrullah

Tags: #nederlands #kunstmatige_intelligentie #ai #artificial_intelligence #chatbot #it #lamda #google