Artificial intelligence (AI) beïnvloedt ons dagelijks leven steeds meer, maar hoe houdt de mens de controle over deze steeds slimmer wordende techniek? In dit artikel gaat AI for Life in op twee voorbeelden van verantwoorde AI. Deze zijn aangedragen door Pim Haselager, hoogleraar Maatschappelijke implicaties van Kunstmatige Intelligentie aan de Radboud Universiteit in Nijmegen.
In een eerder artikel op deze website liet Haselager al weten hoe groot de invloed van AI op ons leven is. AI valt namelijk op zeer veel plaatsen toe te passen, zo blijkt ook uit de interactieve AI-kaart van de regio Arnhem – Nijmegen – Wageningen.
Vanuit zijn expertise richt hij zich erop om de grote rol van deze techniek zo verantwoord mogelijk te laten zijn. Dat het kan, bewijzen twee voorbeelden die hij geeft.
Gezonde chatbots
Het eerste voorbeeld gaat om een soort chatbot, die gericht is op jongeren en twee belangrijke taken heeft. Zo helpt de chatbot bij het stoppen met roken, maar ook ondersteunt deze bij veilig vrijen. Volgens de hoogleraar is dit ontzettend belangrijk, omdat zelfexpressie en rebellie een heel grote rol spelen bij de ontwikkeling van jongeren. De chatbot zorgt ervoor dat dit op een veilige en gezonde manier tot uiting komt.
Haselager: “De uitdaging is ervoor te zorgen dat die chatbots, die natuurlijk een gezond doel hebben, niet een overdreven sturend of zelfs manipulatief effect hebben. Daarnaast heb je in het geval van veilig vrijen ook nog te maken met een ander persoon. Die is niet per se aan de chatbot verbonden. Hoe ga je daarmee om? Dan heb je het dus over gevoeligheden op het gebied van autonomie en zelfbeschikkingsrecht. Dan moet je vertalen naar een applicatie.”
AI als ‘tegendenker’
Haselager werkt zelf ook aan een vorm van verantwoorde AI. Het systeem dat hij ontwikkelt, waakt ervoor dat mensen te veel gaan leunen op de technologie die ze gebruiken.
Beslissingondersteunende systemen, die informatie zoeken en vervolgens zelf met een suggestie komen, bestaan namelijk al. De mens moet dan eindverantwoordelijk blijven, maar in de praktijk zie je vaak dat de aandacht verslapt en mensen iets anders gaan zitten doen. Volgens Haselager komt dit fenomeen voor bij zelfrijdende auto’s en hij vermoedt dat dit op veel meer plekken kan gebeuren.
Haselager: “Zo zal dat misschien ook wel gaan bij bijvoorbeeld juridische beslissingen. In feite ga je dan de menselijke verantwoordelijkheid uithollen. Daarom werk ik aan een systeem dat ‘tegendenkt’. Jij formuleert een diagnose en het systeem vraagt of je misschien ook nog aan andere datapunten hebt gedacht.”
Tegendenken gebeurt nu ook al, bijvoorbeeld bij politieteams. Maar daar zijn het mensen die dat doen. Dat in de toekomst heel anders zijn. “Zou een machine dat niet kunnen”, vraagt Haselager zich hardop af. “Op die manier houd je mensen juist scherp in plaats van dat ze te veel gaan leunen op technologie.”