Rijk van Nijmegen / Arnhem en omstreken

'Wildgroei AI als kind met een cirkelzaag: dat loopt niet goed af'

Professor Pim Haselager waarschuwt:
Professor Pim Haselager waarschuwt: © ANP/Thomas Kuhlenbeck, bewerking Omroep Gelderland
NIJMEGEN - Hoogleraar AI Pim Haselager van de Radboud Universiteit waarschuwt voor de wildgroei aan kunstmatige intelligentie (AI) zonder dat daar een goede controle op zit. Hij vergelijkt die met een kind met een cirkelzaag. "Dat loopt niet goed af."
Een AI die alle menselijke vermogens ongeveer even goed na kan bootsen, is er niet, overziet Haselager. "En die gaan we ook heel lang nog niet krijgen. Omdat juist de stabiliteit en veelzijdigheid van de mens best knap is. Bijvoorbeeld dat je er in heel veel verschillende omstandigheden toch in slaagt om koffie te maken."

Gezond verstand

Ook bezit de mens heel veel gezond verstand, ziet Haselager. "Dat water naar beneden stroomt bijvoorbeeld. Dus als je een glas omstoot, je hetgeen eronder ligt moet proberen weg te halen. Niet dat wat erboven hangt. Dat moet je wel even weten."
Een computer heeft geen idee van het gevoel dat je ervaart wanneer je met een hamer op je duim slaat of je teen stoot.
professor Pim Haselager
Daarnaast bezit de mens heel veel sociale intelligentie en gevoel. "Een computer kan bijvoorbeeld wel leren dat mensen pijn over het algemeen niet prettig vinden. Maar hij heeft geen idee van het gevoel dat je ervaart wanneer je met een hamer op je duim slaat of je teen stoot. Wat dat betreft zit er net zoveel gevoel in de slimste computer als in je ijskast."
Zo kunnen we een schaakcomputer wel leren winnen, maar winnen of verliezen doet hem helemaal niets, weet Haselager. "Terwijl het daar bij sporters juist om draait. En we kunnen een medisch expertsysteem wel leren om mensen zo snel mogelijk beter te maken. Maar dat weet niet wat het is om een weeïg gevoel in je maag te hebben."

Riskant om AI te gebruiken

Op sommige gebieden is AI echt beter dan mensen, erkent Haselager. "Bij problemen oplossen of redeneren. Maar het snapt niet waar het over gaat. Dat maakt AI ook weer anders dan dieren. Die kunnen misschien niet schaken, maar paarden voelen wel of ze ziek zijn of niet. AI is een soort lege denkende huls zonder gevoel."
Dat maakt het ook zo riskant om AI te gebruiken, waarschuwt Haselager. "Een beetje zoals een valsspelende student. Die heel overtuigend probeert het tentamen te maken, maar eigenlijk niet snapt waar het over gaat."

'Kan flink de mist in gaan'

Als je zo'n systeem macht geeft op medisch of juridisch gebied, bij een energievraagstuk of in de journalistiek, dan kun je 'flink de mist in gaan', is Haselager overtuigd. "En dat is ook al regelmatig voorgekomen."
Natuurlijk kunnen er bij mensen ook dingen misgaan als je de verkeerde personen op de verkeerde plek te veel macht geeft, erkent Haselager. "Maar het verschil is dat er bij die mensen wel degelijk een besef is van wat er gebeurt. Als ik bluf, dan weet ik dat zelf ook wel."
Maar als het bijvoorbeeld gaat om het detecteren van tumoren op röntgenfoto's dan kan AI dat aantoonbaar beter dan de mens, weet Haselager. "Bovendien kan het dat 24 uur per dag. Want AI hoeft niet naar de wc, verliest niet zijn aandacht en wordt niet moe. Dan heb je daar dus heel veel aan. Maar als het gaat om psychologische factoren als stress of pijn, dan kan AI die weer niet empathisch duiden."

Meer besef in maatschappij

De maatschappij moet dus weten op welke gebieden en onder welke omstandigheden je AI kunt gebruiken, concludeert de hoogleraar. "En vooral ook wanneer niet."
Uiteindelijk moet er altijd een mens zijn die het controleert, stelt Haselager. Dat wordt volgens hem ook meegenomen in de AI-wetgeving die vanuit Europa gaat komen.

'Banger voor domme machines'

De angst voor een superintelligentie, deelt Haselager niet. "Een soort Arnold Schwarzenegger die op een motor achter ons aankomt. Of iets als The Matrix." Veel banger is de hoogleraar voor domme machines die niet snappen waar het over gaat en toch teveel invloed krijgen op ons dagelijks leven. "Kijk naar het toeslagenschandaal waar vooroordelen in de data tot beslissingen leidden waar mensen achteraan gingen lopen."
Op dit moment wordt verantwoordelijkheid te snel uitbesteed aan systemen die je niet verantwoordelijk kunt houden, ziet Haselager. "Je kunt een computer niet straffen. Je kunt hem vernietigen, maar dat interesseert dat ding helemaal niets."

'Dat is vragen om brokken'

Er is 'totaal geen keurmerk of test' waar AI aan moet voldoen voor het op de markt komt. "Dat kan toch niet", vindt Haselager. "Dat is vragen om brokken. Alsof je een ongeteste auto de weg op stuurt."
Haselager pleit voor een kwaliteitscontrole op alle stappen van AI. "Daar zijn we ook wel mee bezig, maar dat gaat langzamer dan de toepassingen en ontwikkelingen van de technologie."

In Nederland speelt de Rijksinspectie Digitale Infrastructuur (RDI) een rol in de controle op AI. "Als AI gebruikt wordt in belangrijke onderdelen van de digitale infrastructuur, houdt de RDI hier toezicht op", legt een woordvoerder uit. "Vooral op beschikbaarheid, vertrouwelijkheid en integriteit. Daarnaast is de RDI sinds 2020 voorzitter van de EU-werkgroep van Europese toezichthouders op AI. Dat zijn er ruim twintig. We proberen in samenwerking met de andere toezichthouders een verantwoorde inzet van AI op basis van bestaande wetgeving te bewaken."

Welke wet- en regelgeving is er op dit moment rondom AI?

"Heel veel wetten beschrijven eisen waar producten en diensten aan moeten voldoen. Als AI daar impact op heeft, maakt het gelijk onderdeel uit van het bestaande toezicht. Aanvullend komt er dus ook nog hele specifieke wetgeving voor AI aan: de AI Act."

Op wat voor soort AI wordt gecontroleerd en wat houden die controles in?

"Als AI iets betekent in de context van ons toezicht. Op het moment dat het in bepaalde mate risico’s vormt of getoetst moet worden aan de bestaande normen, is er goede reden om daar actief er iets mee te doen."

"AI kan overal ingezet worden. Hoe daarop gecontroleerd wordt, is vaak in iedere sector verschillend. Gebruik van AI in de financiële sector stelt andere eisen en ander toezicht dan AI in telecomnetwerken of bij de Belastingdienst. De toezichthouders bespreken casussen met elkaar in de werkgroep van toezichthouders om van elkaar te leren en elkaar te helpen."

Welke middelen zijn er om op te treden bij afwijkingen of misstanden?

"Dat hangt af van de casus en van de relevante wetgeving. We stellen ons daarbij de vraag welke interventiemethode de maatschappij het meeste oplevert. Hoe kunnen we zorgen dat misstanden worden verzacht en voorkomen, maar tegelijk innovatie mogelijk maken? Dat kan betekenen dat we in het ene geval in gesprek gaan met de fabrikant omdat die misschien niet voldoende bewust is van de misstanden en in staat is die welwillend op te lossen. Maar als een partij willens en wetens iets risicovols op de markt zet, dan zullen wij natuurlijk formeler optreden."

Is de aanwezige wet- en regelgeving op het gebied van AI op dit moment afdoende in uw ogen? Zo nee, wat ontbreekt er?

"Zoals aangegeven is er al veel bestaande regelgeving die gebruikt kan worden om toezicht te houden op AI en komt er nog de AI Act aan. Echter, de AI Act moet nog geïmplementeerd worden en AI ontwikkelt zich. Een analyse of toezichthouders voldoende juridische mogelijkheden hebben om toezicht te houden zal af en toe opnieuw moeten worden beoordeeld."