(Oud-wethouder Floor Kist schrijft voor Vlietnieuws.nl columns over ‘smart cities’. Het gebruik van technologie, internet en data om maatschappelijke vraagstukken te helpen oplossen. Of het nu gaat om zorg, onderwijs, verkeer, wonen, luchtkwaliteit er komen steeds meer technologische aanpakken op ons af. In deze columns wil hij u graag meenemen in de mogelijkheden, wenselijkheden en onwenselijkheden van dit soort ontwikkelingen. Dan kunnen we daar met z’n allen een goed gesprek over voeren, voordat het ons gewoon overkomt)
In een eerdere column schreef ik over ‘kunstmatige intelligente assistenten’ en het voordeel dat we ervan kunnen hebben. Nu besteed ik aandacht aan de minder fijne kanten van de inzet van kunstmatige intelligentie.
Hoe je het wendt of keert, een computer is een hele uitgebreide rekenmachine. De regels en berekeningen waarmee een computer tot uitkomsten komt noemen we ‘algoritmen’. U hebt dat woord vast al een keer gehoord. De kracht van de hedendaagse algoritmen is dat het veel berekeningen met veel gegevens in weinig tijd kunnen verwerken. Het begrip ‘Big Data’ heeft daar dan ook betrekking op. Als ik het heel plat sla, zijn daar twee varianten van:
Het algoritme vindt correlaties in grote hoeveelheden data. Bijvoorbeeld: autoverhuurders in de Verenigde Staten kwamen er, met gebruik van Big Data, achter dat veel mensen een auto huurden voor een romantisch weekend. Dus boden de autoverhuurders een romantisch pakketje aan.
Een algoritme vindt in Big Data gevallen die passen in een voorafgaand model. Bijvoorbeeld: een casino analyseerde het ‘typische’ gedrag van valsspelers en liet vervolgens het algoritme aan de hand van beeldenanalyse valsspelers opsporen.
In beide gevallen krijgt u ermee te maken. Of omdat u andere diensten aangeboden krijgt, of omdat u ‘gesnapt’ wordt bij het valsspelen. Al kan het ook zo zijn, dat u toevallig bepaalde gedragingen deed waardoor de bewaking denkt dat u valsspeelt.
Met die grote hoeveelheden data kunnen dus profielen gemaakt worden van consumenten en valsspelers. Dat wordt ‘profiling’ genoemd. Daar is nog wel het nodige om te doen. Dat komt omdat profiling dicht tegen discriminatie aanligt. Als alle valsspelers een bepaald gedrag vertonen, dan zijn alle mensen die dat gedrag vertonen valsspelers. Vergelijk deze uitspraak met: Alle mannen hebben twee benen, Jeannette heeft twee benen, dus Jeannette is een man.
Dan is dit nog een voorbeeld van het model dat wij als mensen maken. Maar er zijn inmiddels ook voorbeelden die door de computer zelf tot stand brengen.
Een voorbeeld is Norman – een kunstmatige intelligentie van MIT. Het algoritme dat zij gebruikte is in praktijk bedoeld om beelden te voorzien van korte beschrijvingen. Dus, als het algoritme een auto bij een oversteekplaats aantreft, wordt dat de korte beschrijving.
In 2017 hebben ze Norman geprogrammeerd om op een website met veel gewelddadige afbeeldingen de beschrijvingen te maken. Daarna hebben ze Norman opgedragen om beschrijvingen te maken van rorschachtests – u weet wel de psychologische inktvlekkentest. Hieronder ziet u de resultaten. Waar de meeste AI ‘gewone’ beschrijvingen geven, geeft Norman een gewelddadige beschrijving.
Het doel van MIT was om het effect van vooroordelen te tonen. Het is dan ook geen toeval dat Norman is genoemd naar de hoofdpersoon uit de 1960 horrorfilm “Psycho” van Alfred Hitchcock.
De hoge commissaris voor mensenrechten van de Verenigde Naties heeft in oktober 2019 de Nederlandse regering gewaarschuwd tegen het gebruik van een algoritme bij sociale voorzieningen. Nationale en gemeentelijke overheden kunnen gebruik maken van het System Risk Indication (SyRI), waarbij een niet-openbaar algoritme gebruik maakt van overheidsdata die voorheen apart werden gehouden, om bepaalde mensen te identificeren die waarschijnlijk fraude kunnen plegen. Bij de invoering ervan is het uitsluitend gebruikt in data van voornamelijk mensen met lage inkomens, migranten en etnische minderheden.
Syri heeft, zonder debat in de Tweede Kamer, een wettelijke status gekregen. Bezorgde belangenorganisaties hebben een rechtszaak tegen de regering aangespannen over het gebruik van SyRi.
De VN-hoge commissaris, de Australiër Philip Alston, vergeleek de invoering van SyRi met de gefaalde invoering van een algoritme dat belastingfraude zou moeten opsporen. De opsporting zou in het bijzonder gericht worden op midden- en hogere-inkomensgroepen. Om redenen van privacy is dit algoritme niet ingevoerd. Privacy was kennelijk by SyRi minder relevant, ondanks dat verschillende belangengroepen hier wel op gewezen hebben.
Alston heeft zijn analyse ter beschikking gesteld aan de rechters, concluderend dat deze werkwijze de mensenrechten van mensen met lage sociaal-economische status onevenredig getroffen worden. De rechter zal hierin een afweging moeten maken.
U krijgt hoe dan ook te maken met ‘slimme’ algoritmen, bijvoorbeeld of u een lening kunt krijgen of niet. Of uw verzekeringsuitkering wordt verstrekt of niet. Deze organisaties maken nu al op dezelfde wijze gebruik van risicoprofielen. Die worden nu al of binnenkort door een algoritme ondersteund. In dit geval is het aanspreken van het verzekeringsbedrijf op z’n plaats.
Maar nu al studeren juristen op de aansprakelijkheid van algoritmen. Als een zelfsturende auto een ongeluk maakt, wie heeft het dan gedaan? De eigenaar van de auto, het autobedrijf, het softwarebedrijf?
We krijgen hoe dan ook allen te maken met een vorm van beslissing die door een algoritme ondersteund wordt. Hopelijk heten ze dan niet allemaal Norman. (Floor Kist)