Innovation, Technology & Law

Ethiek & Grondrechten | Digitalisering | Rechtsstatelijkheid | Fundamentele Waarden

De opmars van Robotica, Artificial Intelligence, Big Data en The Internet of Things heeft verstrekkende gevolgen voor de samenleving. Het is van belang om best practices van data analyse, fundamentele waarden en ethische gedragscodes inzake gegevensbescherming proactief in bouwen in design van algoritmen, producten, AI toepassingen en creaties alsook in blockchaintechnologie en smart contracts. Wetgeving inzake waarborging grondrechten van burgers en consumenten bij digitalisering van de samenleving, voorkomen van algoritmische bias en discriminatie, rechten en plichten, zelfregulering, rechtsstatelijkheid en soft law.

Fundamentele normen en waarden

Vrijheidsrechten

Gelijkheidsrechten

Privacy

Discriminatie

Algoritmische Bias

Rechtsstatelijkheid

Ethiek & Grondrechten

Artificiële Intelligentie en Ethiek: over morele verantwoordelijkheden, menselijke waardigheid en grondrechten

Onze gedigitaliseerde samenleving maakt in hoog tempo ontwikkelingen door die een decennium geleden nog onvoorstelbaar waren. Algoritme-gedreven technologieën zoals Big Data, the Internet of Things en artificiële intelligentie (AI) zijn aan een ongelooflijke opmars bezig. De mogelijkheden lijken onuitputtelijk en zijn alomvattend.

Digitalisering en de Nederlandse Grondwet

Hoewel digitalisering graag in verband wordt gebracht met (economische) vooruitgang, efficiëntie, effectiviteit en neutraliteit, wordt men zich er in toenemende mate van bewust dat aan deze vooruitgang belangrijke nadelen kleven. De voortschrijdende digitalisering kan een grote impact hebben op onze grondrechten. Sterker nog: ze hééft reeds een grote impact op onze rechten als mens en burger, zoals neergelegd in de Nederlandse Grondwet. Het is van groot belang om stil te staan bij de betekenis van digitalisering en het gebruik van Big Data, the Internet of Things en AI voor intermenselijke verhoudingen, grondrechten, onze ‘mores’, onze vrijheden en ons voortbestaan.

Ethiek & Grondrechten | Digitalisering | Rechtsstatelijkheid | Fundamentele Waarden

Ethiek & Grondrechten | Digitalisering | Rechtsstatelijkheid | Fundamentele Waarden


Geautomatiseerde beslissingen op basis van profilering

Wij zijn ons ervan bewust dat dit laatste wat zwaar lijkt aangezet; niets is evenwel minder waar. Stelt u zich de situatie voor dat een geautomatiseerd systeem op basis van -al dan niet correct- ingevoerde gegevens een bindende beslissing neemt over de wenselijkheid en kosteneffectiviteit van een medische behandeling- en vergoeding al dan niet toestaat, dat rechterlijke uitspraken uitsluitend door de computer worden gedaan, dat overheidsorganen louter nog geautomatiseerde beslissingen nemen op basis van profilering.

Ethische aspecten van intelligente technologieën

Dit is geen toekomstmuziek: dergelijke praktijken zijn inmiddels de realiteit. De gevolgen daarvan zijn verstrekkend en ingrijpend. Het is om die reden noodzakelijk dat er aandacht wordt besteed aan de ethische aspecten van de digitalisering. Niet enkel door nationale en internationale overheden en overige wetgevende of adviserende instanties, maar ook door ontwikkelaars en producenten van intelligente technologieën en hun (eind)gebruikers.

Op deze pagina zullen we wat dieper ingaan op de ethische aspecten van het gebruik van intelligente technologieën.

Zelfdenkende systemen

Zeer recent verscheen er een rapport inzake de impact van algoritmes op grondrechten. De auteurs van dit rapport- prof. mr. Gerards, prof. mr. Nehmelman en dhr. Vetzo; allen verbonden aan Universiteit Utrecht- schreven het in opdracht van het Ministerie van Binnenlandse Zaken. Doel: in kaart brengen hoe het gebruik van algoritme gedreven technologieën in publieke en private verhoudingen (mogelijk) onze grondrechten aantasten.

Rechtsstatelijke verhoudingen

Het Rathenau Instituut publiceert regelmatig over de digitale samenleving en ethiek en ook de Raad van State bracht een -ongevraagd- advies uit over de toenemende automatisering en digitalisering in rechtsstatelijke verhoudingen.

Steeds draait het daarbij om de vraag hoe we enerzijds optimaal gebruik kunnen maken van de kansen die kunstmatige intelligentie biedt, terwijl we tegelijkertijd rekening blijven houden met ethische waarden en juridische grondslagen.



Opkomst van zelfdenkende systemen

Die vraag wordt met de opkomst van zelfdenkende systemen steeds belangrijker. Er zijn immers al systemen die zelfbewust zijn en bepaalde doelen nastreven. De strategieën om die doelen te bereiken wordt door het systeem zelf ontwikkeld en door middel van ‘machine learning’ kan het systeem leren van eigen fouten. Dat maakt een dergelijk systeem in sommige opzichten beter en efficiënter dan mensen. Immers: anders dan mensen raakt het niet vermoeid, gefrustreerd of gedemotiveerd.

Transparantie

Keerzijde is echter dat het vaak onduidelijk is hoe een geautomatiseerd systeem tot bepaalde besluiten kan komen: het ‘denkproces’ of het ‘afwegingsproces’ is onzichtbaar of niet transparant. Dikwijls is niet meer te achterhalen op basis van welke ingevoerde gegevens een beslissing tot stand komt of hoe die gegevens gedurende de ‘levenscyclus’ van het systeem worden aangepast. Leert het systeem van ‘eigen fouten’ doordat het de uitkomst aanpast of de beginwaarden bijstelt?

Subwerkelijkheid

Het gevaar bestaat aldus dat door grootschalig gebruik van algoritme gedreven technologieën een digitale subwerkelijkheid ontstaat, die weliswaar sterk verweven is met de analoge werkelijkheid -en daarom plausibel lijkt- maar die niet hetzelfde is. Kafkaiaanse toestanden doen zich nu al met enige regelmaat voor en zullen- als we niet zorgvuldig omgaan met artificiële intelligentie- alleen maar toenemen.

Techniek is niet neutraal

Het Rathenau Instituut schreef in 2017 al dat de inzet van artificial intelligence publieke waarden als privacy, gelijkheid, rechtvaardigheid, autonomie en controle over technologie onder druk zet. Dat wordt deels veroorzaakt door de creatie van subwerkelijkheden, maar vooral omdat- anders dan men vaak aanneemt- techniek niet neutraal is.

Discriminerende software

Softwareprogramma’s blijken dikwijls bias te bevatten: ze discrimineren. Bekende voorbeelden zijn HRM systemen die zelflerende algoritmes bevatten. Deze algoritmen kunnen leren hoe succes eruitziet door ze afbeeldingen van en informatie over succesvolle mensen te ‘voeren’. Zo kan men een selectieproces versnellen: kandidaten met ‘unfavourable’ gezichtskenmerken of de verkeerde hobby’s vallen dan direct af.

Algoritmische bias

Artificiële intelligentie lijkt ook in staat te zijn om zijn eigen gang te gaan; bijsturen wordt dan moeilijker. Maar ook als algoritmen worden bijgestuurd, zijn technologische bias een belangrijke valkuil. Impliciete vooroordelen van ontwikkelaars en makers kunnen bijdragen aan ongewenste differentiatie. Dat betekent dat het steeds belangrijker wordt om de doelen van het gebruik van AI en de randvoorwaarden te blijven monitoren, evalueren en bijsturen. Daar ligt een belangrijke rol voor gebruikers van AI: men kan die verantwoordelijkheid niet alléén bij ontwikkelaars neerleggen.



Overheidsbeslissingen en beginselen van behoorlijk bestuur

Waar AI- systemen een belangrijke rol vervullen bij het nemen van overheidsbesluiten of het bepalen van beleid, verandert het nodige in de verhouding tussen overheid en burgers.

Wat blijft er feitelijk nog over van de beginselen van behoorlijk bestuur als de overheid beslissingen neemt met een (zelflerend) geautomatiseerd systeem? De wijze waarop beslissingen tot stand komen, is vaak niet meer te achterhalen. Evenmin weet men op basis van welke data beslissingen worden genomen. Ook hier geldt dat beslissystemen bias en fouten kunnen bevatten, dat gegevens onjuist kunnen worden ingevoerd, dat discretionaire bevoegdheden (de mogelijkheid om een hardheidsclausule toe te passen) ten onrechte niet worden benut.

Geautomatiseerde ketenbesluiten

Met name dat laatste heeft tot gevolg dat maatwerk in het besluitvormingsproces ernstig onder druk komt te staan en doet zich hoofdzakelijk gevoelen in geautomatiseerde ketenbesluiten.

Advies Raad van State

De Raad van State legt in zijn advies betreffende digitalisering en wetgeving uit waar de schoen wringt:

“Het eerste probleem ontstaat doordat algoritmen door middel van een programmeertaal worden omgezet in machinetaal voor computers. Het is voor niet-ICT-specialisten niet mogelijk te controleren of de omzetting van algoritmen in een programmeertaal foutloos en nauwkeurig is gegaan, laat staan of de omzetting naar machinetaal goed is verlopen. Daarbij maken algoritmen gebruik van - soms grote aantallen - gegevens, die ontleend kunnen zijn aan diverse andere bronnen. Burgers kunnen de behoefte voelen die gegevens te controleren, maar het kan zeer bewerkelijk zijn om alle gegevens beschikbaar te stellen, terwijl daarmee niet altijd een redelijk doel is gediend.”

En:

“Het tweede probleem is dat regels in natuurlijke taal lang niet altijd een op een kunnen worden vertaald in een algoritme. Regels zijn per definitie abstract, bedoeld om op een verscheidenheid van situaties te worden toegepast. Zij zijn geschreven met een aantal standaard kenmerken voor ogen, maar ze moeten met onderscheidend vermogen worden toegepast in een veelheid aan situaties. Een regel moet eerst worden geïnterpreteerd voordat zij kan worden toegepast. Hoe dat het beste kan worden gedaan - welke interpretatiemethode moet worden toegepast en met welk resultaat - is niet vooraf en in het algemeen te zeggen. Dat hangt af van allerlei kennis van de regel - kennis die vaak alleen impliciet aanwezig is in de hoofden van juristen of van de maatschappelijke doelgroep van de regel - en kennis van de werkelijkheid. Algoritmen daarentegen zijn bedoeld om van toepassing te zijn in situaties met geprogrammeerde kenmerken; zij negeren alle verdere omstandigheden. Algoritmen kunnen geen rekening houden met impliciete kennis, met de noodzaak om de regel te interpreteren en met de noodzaak om alle omstandigheden van het geval mee te wegen. Zij worden geacht uitputtend te zijn. In de uitvoeringspraktijk is dat lang niet altijd mogelijk en verantwoord.”

Big data en deep learning

De Raad wijst tevens op het gevaar van profilering door de overheid, waarbij gebruik wordt gemaakt van big data en deep learning om -bijvoorbeeld- (risico)groepen (jongeren, kwetsbare werknemers, vrouwen, noem maar op) in kaart te brengen.

“Bij verschijnselen als "deep learning" en "zelflerende systemen" gaat het om algoritmen die niets anders doen dan statistische verbanden zoeken. Zo’n statistisch verband of correlatie wijst op een verhoogde waarschijnlijkheid dat er ook feitelijk een verband is. Daarmee staat niet vast dát er een verband is en zo ja, hoe dat verband eruitziet.”

Vernetwerking

Ook ‘vernetwerking’ binnen de overheid is een heikel punt. Met vernetwerking doel ik op het fenomeen dat een bestuursorgaan geautomatiseerde besluiten neemt op basis van data die automatisch zijn ontleend aan andere bestuursorganen, bijvoorbeeld aan de gemeentelijke basisadministratie of de Sociale Verzekeringsbank. Vervolgens wordt het genomen besluit automatisch doorgegeven aan andere bestuursorganen die vervolgens verder borduren op de informatie die zij aan dat besluit ontlenen.

Omstandigheden van het geval

Vernetwerking kan een hele efficiënte wijze van werken zijn. Zonder risico is het echter zeker niet. Om bepaalde gegevens juist te kunnen duiden, is context nodig: men moet dus kijken naar de ‘omstandigheden van het geval’. En dat kan het systeem niet, omdat het nu juist die menselijke maat mist. En indien een verkeerd gegeven wordt opgenomen in de keten, gaat het daar al gauw een eigen leven leiden. Met alle gevolgen van dien.



Gedupeerde burger

Het is vervolgens aan de gedupeerde burger om te bewijzen dat het systeem een fout heeft gemaakt: een onmogelijke exercitie. Herstellen van een fout is meestal eveneens onmogelijk.

De Raad van State illustreert een en ander aan de hand van het volgende voorbeeld:

“ Esther wordt uitgeschreven door haar gemeente omdat ze een deel van het jaar in het buitenland is en te weinig in haar woning verblijft. Ze krijgt de status "vertrokken onbekend waarheen". De gemeente ziet geen mogelijkheid om haar opnieuw in te schrijven; ze past simpelweg niet in het systeem. De gevolgen van de uitschrijving, met status "vertrokken onbekend waarheen", zijn groot. Haar bedrijf is automatisch uitgeschreven bij de Kamer van Koophandel, ze bouwt geen AOW meer op, ze is uit haar ziektekostenverzekering gegooid, paspoort aanvragen zonder adres is niet mogelijk, en ook het kopen van een auto blijkt lastig. Niemand lijkt het probleem voor haar te kunnen oplossen, hiervoor is eerst aanpassing van wetgeving nodig: die is niet berekend op mensen die veel reizen, vooral naar het buitenland.”

(Ontleend aan Widlak & Peeters, De Digitale Kooi 2018, blz. 67-70.)

Duidelijk mag zijn dat de invloed van kunstmatige intelligentie op de rechtsstatelijkheid verstrekkend kan zijn. Tijd voor nieuwe wetgeving inzake bestuursrechtelijke aangelegenheden en wetgevingsprocessen? Mogelijk wel. Streven zal daarbij moeten zijn dat wetgeving zo veel mogelijk techniekonafhankelijk of techniekneutraal tot stand komt. De overheid staat wat dat betreft voor een behoorlijke uitdaging!

Privacy

Vrij recent werd de Algemene Verordening Gegevensbescherming van kracht. Doel van de AVG is de burger een betere bescherming te bieden tegen ongebreidelde dataverzameling en de verwerking van deze data.

Formeel moet een verwerker van persoonsgegevens de expliciete toestemming verkrijgen van betrokkenen om gegevens te verzamelen en te verwerken. Daarnaast vereist de AVG dat gegevens worden verzameld en verwerkt met een nauw omschreven doel en dat betrokkenen daar duidelijk over worden geïnformeerd. Voorts moet het mogelijk worden gemaakt om persoonsgegevens te (laten) verwijderen uit databases waar ze zijn opgeslagen: het recht op vergetelheid.

Internet of Things (IoT)

Met name het gebruik van blockchaintechnologie en the Internet of Things (IoT) botst op een aantal vlakken met de vereisten van de AVG. Gegevens worden namelijk ook verzameld zodra men de supermarkt binnenstapt, zonder dat dit expliciet aan de burger wordt medegedeeld. Embedded systemen zijn de grootste gebruikers van het internet, die autonome beslissingen kunnen nemen over data en onderling gegevens uitwisselen, zonder dat direct te achterhalen is waar die gegevens naartoe gaan of hoe ze worden verwerkt.

En wat te denken van blockchaintechnologie? Hoewel deze technologie op dit moment nog volop in ontwikkeling is, zal hier op zeer korte termijn ruim gebruik van worden gemaakt door bedrijven, overheden en (semi commerciële) instellingen.

Blockchaintechnologie

Blockchains kunnen datastromen efficiënter, transparanter en mogelijk betrouwbaarder maken. Ze zouden daardoor bijzonder goed kunnen worden toegepast in bijvoorbeeld supply chains. Partijen die zijn aangesloten bij een bepaald netwerk of een bepaalde keten- zoals een supply chain- kunnen via blockchain gelijktijdig beschikken over dezelfde gegevens. Aanpassen van gegevens is niet mogelijk zonder toestemming van alle partijen in de keten. Administratieve fraude zou op die manier kunnen worden tegengegaan. Ook zal het op termijn mogelijk zijn dat er op een directere manier handel kan worden gedreven; waarschijnlijk zullen we binnen enkele jaren een peer-to-peer economie kennen.

Recht op vergetelheid

Dat klinkt allemaal veelbelovend, nietwaar? Dat is het uiteraard ook. Belangrijke kanttekening is evenwel dat blockchain gegevens onveranderlijk en permanent kan opslaan. Foutieve gegevens kunnen niet worden gecorrigeerd -en gaan dus een eigen leven leiden- en de omstandigheid dat gegevens onuitwisbaar zijn, staat haaks op het in de AVG geformuleerde recht op vergetelheid.

Commerciële doelstellingen

Daarnaast is het zeer wel denkbaar dat bedrijven blockchains ontwikkelen ten behoeve van eigen commerciële doelstellingen en consumenten permanent zullen volgen. Dat is uiteraard een onwenselijke en overigens ook potentieel gevaarlijke situatie. Het gebruik van op algoritmen gebaseerde technologieën zoals blockchain en the Internet of Things raakt zonder enige twijfel aan onze privacy, en dus aan onze persoonlijke levenssfeer. Ironisch genoeg doet het belang van privacy zich doorgaans pas gevoelen op het moment dat het er niet meer is.

Privacywaarborgen uit de AVG voldoende?

De verwachting is dat de privacywaarborgen die de AVG beoogt te scheppen op termijn in ieder geval onvoldoende zullen blijken. Het daarom zaak dat alle betrokkenen- ontwikkelaars, gebruikers, overheden- met elkaar in gesprek blijven en prioriteit geven aan de ontwikkeling van techniekonafhankelijke wetgeving, waarbij bescherming en behoud van menselijke waardigheid en morele verantwoordelijkheid centraal staat. Alleen dan kan AI de kansen creëren die het belooft.