In PC-Active 305 ("Eerlijke algoritmes") schreef Koen Vervloesem een uitstekend en overzichtelijk verslag van de stand van zaken van besluitvorming door algoritmes. De invloed van kunstmatige intelligentie bij profilering en de willekeur die daardoor kan ontstaan, wordt haarfijn uit de doeken gedaan.

Voor wie zich hierover zorgen maakt, geef ik hier een korte suggestie.

algorithm 3859539 340Natuurlijk neemt kunstmatige besluitvorming hand over hand toe en we zijn er vaak heel blij mee. Denk aan de adviezen van uw routeplanner of de schrijfhulp bij een sollicitatiebrief. Sommige mensen willen dat hun domme domotica nu eens echt slim wordt. Maar als uw sollicitatie wordt afgewezen, een verzekering of hypotheek geweigerd, de flappentap u geen flappen wil geven, dan wordt het slimme systeem toch wel erg lastig.

In de 'privacy'-wet, de Algemene verordening gegevensbescherming (Avg), is daarin voorzien. Hoofdstuk III afd. 2 art. 13 lid 2f zegt: de verwerker informeert u over "het bestaan van geautomatiseerde besluitvorming, met inbegrip van de in artikel 22, leden 1 en 4, bedoelde profilering, en, ten minste in die gevallen, nuttige informatie over de onderliggende logica, alsmede het belang en de verwachte gevolgen van die verwerking voor de betrokkene."

Dit heeft betrekking op de AI-algoritmes die Koen beschrijft. In gewoon Nederlands: wie met behulp van een geautomatiseerd beslissysteem besluiten over personen neemt, moet uit kunnen leggen hoe dat besluit tot stand is gekomen. Zoals Koen terecht schrijft, dat gaat heel moeilijk worden.

Kunnen de verwerkers (arts, verzekeraar, financiƫle instelling, politie) niet uitleggen waar hun besluit op is gebaseerd, dan kunt u een onderbouwde klacht indienen bij de Autoriteit Persoonsgegevens. "Dat zegt de computer" is geen geldig excuus.

Jan Willem Broekema
oud-vicevoorzitter CBP