Fundamentele normen en waarden
Vrijheidsrechten
Gelijkheidsrechten
Privacy
Discriminatie
Algoritmische Bias
Rechtsstatelijkheid
Ethiek & Grondrechten
Artificiële Intelligentie en Ethiek: over morele verantwoordelijkheden, menselijke waardigheid en grondrechten
Onze gedigitaliseerde samenleving maakt in hoog tempo ontwikkelingen door die een decennium geleden nog onvoorstelbaar waren. Algoritme-gedreven technologieën zoals Big Data, the Internet of Things en artificiële intelligentie (AI) zijn aan een ongelooflijke opmars bezig. De mogelijkheden lijken onuitputtelijk en zijn alomvattend.
Digitalisering en de Nederlandse Grondwet
Hoewel digitalisering graag in verband wordt gebracht met (economische) vooruitgang, efficiëntie, effectiviteit en neutraliteit, wordt men zich er in toenemende mate van bewust dat aan deze vooruitgang belangrijke nadelen kleven. De voortschrijdende digitalisering kan een grote impact hebben op onze grondrechten. Sterker nog: ze hééft reeds een grote impact op onze rechten als mens en burger, zoals neergelegd in de Nederlandse Grondwet. Het is van groot belang om stil te staan bij de betekenis van digitalisering en het gebruik van Big Data, the Internet of Things en AI voor intermenselijke verhoudingen, grondrechten, onze ‘mores’, onze vrijheden en ons voortbestaan.
Geautomatiseerde beslissingen op basis van profilering
Wij zijn ons ervan bewust dat dit laatste wat zwaar lijkt aangezet; niets is evenwel minder waar. Stelt u zich de situatie voor dat een geautomatiseerd systeem op basis van -al dan niet correct- ingevoerde gegevens een bindende beslissing neemt over de wenselijkheid en kosteneffectiviteit van een medische behandeling- en vergoeding al dan niet toestaat, dat rechterlijke uitspraken uitsluitend door de computer worden gedaan, dat overheidsorganen louter nog geautomatiseerde beslissingen nemen op basis van profilering.
Ethische aspecten van intelligente technologieën
Dit is geen toekomstmuziek: dergelijke praktijken zijn inmiddels de realiteit. De gevolgen daarvan zijn verstrekkend en ingrijpend. Het is om die reden noodzakelijk dat er aandacht wordt besteed aan de ethische aspecten van de digitalisering. Niet enkel door nationale en internationale overheden en overige wetgevende of adviserende instanties, maar ook door ontwikkelaars en producenten van intelligente technologieën en hun (eind)gebruikers.
Op deze pagina zullen we wat dieper ingaan op de ethische aspecten van het gebruik van intelligente technologieën.
Zelfdenkende systemen
Zeer recent verscheen er een rapport inzake de impact van algoritmes op grondrechten. De auteurs van dit rapport- prof. mr. Gerards, prof. mr. Nehmelman en dhr. Vetzo; allen verbonden aan Universiteit Utrecht- schreven het in opdracht van het Ministerie van Binnenlandse Zaken. Doel: in kaart brengen hoe het gebruik van algoritme gedreven technologieën in publieke en private verhoudingen (mogelijk) onze grondrechten aantasten.
Rechtsstatelijke verhoudingen
Het Rathenau Instituut publiceert regelmatig over de digitale samenleving en ethiek en ook de Raad van State bracht een -ongevraagd- advies uit over de toenemende automatisering en digitalisering in rechtsstatelijke verhoudingen.
Steeds draait het daarbij om de vraag hoe we enerzijds optimaal gebruik kunnen maken van de kansen die kunstmatige intelligentie biedt, terwijl we tegelijkertijd rekening blijven houden met ethische waarden en juridische grondslagen.
U zoekt effectief juridisch advies artificiële intelligentie big data, quantum computing, machine learning robotica blockchain en auteursrecht tegen gunstige tarieven. Zoals contracten opstellen voor Europese tech-startups of internationaal zakendoen met China en de Verenigde Staten. Commodificatie van mensgerichte, sociaal & ethisch verantwoorde kunstmatig intelligente producten en diensten. Regulatory compliance & conformity vraagstukken, CE-markering Hi-Risk AI Systems en wettelijke vereisten nieuwe EU AI Regulation. Due diligence onderzoeksrapporten, risk assessments en audits bij bedrijfsovernames & fusies. Faciliteren van data delen, data protection en deep reinforcement learning training corpora. Bel of email ons kantoor in Amsterdam voor een ervaren, aan Stanford University verbonden jurist ICT recht met AI-expertise en kennis van hybrid & infinite computing. Informeer ook naar wettelijke eisen AVG/GDPR privacywetgeving inzake martkintroductie van en handel in apps en edge devices en kansen op het gebied van intellectueel eigendom, policy en innovatie. Professionele juridische dienstverlening en consultancy services ten behoeve van sleuteltechnologieën van de 4e Industriële Revolutie.
Opkomst van zelfdenkende systemen
Die vraag wordt met de opkomst van zelfdenkende systemen steeds belangrijker. Er zijn immers al systemen die zelfbewust zijn en bepaalde doelen nastreven. De strategieën om die doelen te bereiken wordt door het systeem zelf ontwikkeld en door middel van ‘machine learning’ kan het systeem leren van eigen fouten. Dat maakt een dergelijk systeem in sommige opzichten beter en efficiënter dan mensen. Immers: anders dan mensen raakt het niet vermoeid, gefrustreerd of gedemotiveerd.
Transparantie
Keerzijde is echter dat het vaak onduidelijk is hoe een geautomatiseerd systeem tot bepaalde besluiten kan komen: het ‘denkproces’ of het ‘afwegingsproces’ is onzichtbaar of niet transparant. Dikwijls is niet meer te achterhalen op basis van welke ingevoerde gegevens een beslissing tot stand komt of hoe die gegevens gedurende de ‘levenscyclus’ van het systeem worden aangepast. Leert het systeem van ‘eigen fouten’ doordat het de uitkomst aanpast of de beginwaarden bijstelt?
Subwerkelijkheid
Het gevaar bestaat aldus dat door grootschalig gebruik van algoritme gedreven technologieën een digitale subwerkelijkheid ontstaat, die weliswaar sterk verweven is met de analoge werkelijkheid -en daarom plausibel lijkt- maar die niet hetzelfde is. Kafkaiaanse toestanden doen zich nu al met enige regelmaat voor en zullen- als we niet zorgvuldig omgaan met artificiële intelligentie- alleen maar toenemen.
Techniek is niet neutraal
Het Rathenau Instituut schreef in 2017 al dat de inzet van artificial intelligence publieke waarden als privacy, gelijkheid, rechtvaardigheid, autonomie en controle over technologie onder druk zet. Dat wordt deels veroorzaakt door de creatie van subwerkelijkheden, maar vooral omdat- anders dan men vaak aanneemt- techniek niet neutraal is.
Discriminerende software
Softwareprogramma’s blijken dikwijls bias te bevatten: ze discrimineren. Bekende voorbeelden zijn HRM systemen die zelflerende algoritmes bevatten. Deze algoritmen kunnen leren hoe succes eruitziet door ze afbeeldingen van en informatie over succesvolle mensen te ‘voeren’. Zo kan men een selectieproces versnellen: kandidaten met ‘unfavourable’ gezichtskenmerken of de verkeerde hobby’s vallen dan direct af.
Algoritmische bias
Artificiële intelligentie lijkt ook in staat te zijn om zijn eigen gang te gaan; bijsturen wordt dan moeilijker. Maar ook als algoritmen worden bijgestuurd, zijn technologische bias een belangrijke valkuil. Impliciete vooroordelen van ontwikkelaars en makers kunnen bijdragen aan ongewenste differentiatie. Dat betekent dat het steeds belangrijker wordt om de doelen van het gebruik van AI en de randvoorwaarden te blijven monitoren, evalueren en bijsturen. Daar ligt een belangrijke rol voor gebruikers van AI: men kan die verantwoordelijkheid niet alléén bij ontwikkelaars neerleggen.
Blog over juridische, sociale, ethische en policy aspecten van Kunstmatige Intelligentie, Quantum Computing, Sensing & Communication, Augmented Reality en Robotica, Big Data Wetgeving en Machine Learning Regelgeving. Kennisartikelen inzake de EU AI Act, de Data Governance Act, cloud computing, algoritmes, privacy, virtual reality, blockchain, robotlaw, smart contracts, informatierecht, ICT contracten, online platforms, apps en tools. Europese regels, auteursrecht, chipsrecht, databankrechten en juridische diensten AI recht.
Overheidsbeslissingen en beginselen van behoorlijk bestuur
Waar AI- systemen een belangrijke rol vervullen bij het nemen van overheidsbesluiten of het bepalen van beleid, verandert het nodige in de verhouding tussen overheid en burgers.
Wat blijft er feitelijk nog over van de beginselen van behoorlijk bestuur als de overheid beslissingen neemt met een (zelflerend) geautomatiseerd systeem? De wijze waarop beslissingen tot stand komen, is vaak niet meer te achterhalen. Evenmin weet men op basis van welke data beslissingen worden genomen. Ook hier geldt dat beslissystemen bias en fouten kunnen bevatten, dat gegevens onjuist kunnen worden ingevoerd, dat discretionaire bevoegdheden (de mogelijkheid om een hardheidsclausule toe te passen) ten onrechte niet worden benut.
Geautomatiseerde ketenbesluiten
Met name dat laatste heeft tot gevolg dat maatwerk in het besluitvormingsproces ernstig onder druk komt te staan en doet zich hoofdzakelijk gevoelen in geautomatiseerde ketenbesluiten.
Advies Raad van State
De Raad van State legt in zijn advies betreffende digitalisering en wetgeving uit waar de schoen wringt:
“Het eerste probleem ontstaat doordat algoritmen door middel van een programmeertaal worden omgezet in machinetaal voor computers. Het is voor niet-ICT-specialisten niet mogelijk te controleren of de omzetting van algoritmen in een programmeertaal foutloos en nauwkeurig is gegaan, laat staan of de omzetting naar machinetaal goed is verlopen. Daarbij maken algoritmen gebruik van - soms grote aantallen - gegevens, die ontleend kunnen zijn aan diverse andere bronnen. Burgers kunnen de behoefte voelen die gegevens te controleren, maar het kan zeer bewerkelijk zijn om alle gegevens beschikbaar te stellen, terwijl daarmee niet altijd een redelijk doel is gediend.”
En:
“Het tweede probleem is dat regels in natuurlijke taal lang niet altijd een op een kunnen worden vertaald in een algoritme. Regels zijn per definitie abstract, bedoeld om op een verscheidenheid van situaties te worden toegepast. Zij zijn geschreven met een aantal standaard kenmerken voor ogen, maar ze moeten met onderscheidend vermogen worden toegepast in een veelheid aan situaties. Een regel moet eerst worden geïnterpreteerd voordat zij kan worden toegepast. Hoe dat het beste kan worden gedaan - welke interpretatiemethode moet worden toegepast en met welk resultaat - is niet vooraf en in het algemeen te zeggen. Dat hangt af van allerlei kennis van de regel - kennis die vaak alleen impliciet aanwezig is in de hoofden van juristen of van de maatschappelijke doelgroep van de regel - en kennis van de werkelijkheid. Algoritmen daarentegen zijn bedoeld om van toepassing te zijn in situaties met geprogrammeerde kenmerken; zij negeren alle verdere omstandigheden. Algoritmen kunnen geen rekening houden met impliciete kennis, met de noodzaak om de regel te interpreteren en met de noodzaak om alle omstandigheden van het geval mee te wegen. Zij worden geacht uitputtend te zijn. In de uitvoeringspraktijk is dat lang niet altijd mogelijk en verantwoord.”
Big data en deep learning
De Raad wijst tevens op het gevaar van profilering door de overheid, waarbij gebruik wordt gemaakt van big data en deep learning om -bijvoorbeeld- (risico)groepen (jongeren, kwetsbare werknemers, vrouwen, noem maar op) in kaart te brengen.
“Bij verschijnselen als "deep learning" en "zelflerende systemen" gaat het om algoritmen die niets anders doen dan statistische verbanden zoeken. Zo’n statistisch verband of correlatie wijst op een verhoogde waarschijnlijkheid dat er ook feitelijk een verband is. Daarmee staat niet vast dát er een verband is en zo ja, hoe dat verband eruitziet.”
Vernetwerking
Ook ‘vernetwerking’ binnen de overheid is een heikel punt. Met vernetwerking doel ik op het fenomeen dat een bestuursorgaan geautomatiseerde besluiten neemt op basis van data die automatisch zijn ontleend aan andere bestuursorganen, bijvoorbeeld aan de gemeentelijke basisadministratie of de Sociale Verzekeringsbank. Vervolgens wordt het genomen besluit automatisch doorgegeven aan andere bestuursorganen die vervolgens verder borduren op de informatie die zij aan dat besluit ontlenen.
Omstandigheden van het geval
Vernetwerking kan een hele efficiënte wijze van werken zijn. Zonder risico is het echter zeker niet. Om bepaalde gegevens juist te kunnen duiden, is context nodig: men moet dus kijken naar de ‘omstandigheden van het geval’. En dat kan het systeem niet, omdat het nu juist die menselijke maat mist. En indien een verkeerd gegeven wordt opgenomen in de keten, gaat het daar al gauw een eigen leven leiden. Met alle gevolgen van dien.
AI, big data, cloud computing en blockchain veranderen het internet in rap tempo. Regulering van het internet 2.0 kent een belangrijke juridische dimensie. Wie is Robo Juridica en wat houdt eLaw in? Wat is het Internet of Things? Welke ethische aspecten kleven er aan transformatieve digitale technologie en hoe worden internetvrijheden gewaarborgd? Wat zijn Cyber Agents? Gelden auteursrechten ook online? Hoe zit het met privacy, toestemming voor gegevensgebruik, hoor en wederhoor bij geautomatiseerde besluiten en de dataficatie van het world wide web? Zijn real-world toepassingen van blockchain, genetische algoritmes en kunstmatige intelligentie wel veilig? Welke Europese wetten geven ons het recht om vergeten te worden en hoe gaat dat in de praktijk in zijn werk? Vraag om vrijblijvend om advies.
Gedupeerde burger
Het is vervolgens aan de gedupeerde burger om te bewijzen dat het systeem een fout heeft gemaakt: een onmogelijke exercitie. Herstellen van een fout is meestal eveneens onmogelijk.
De Raad van State illustreert een en ander aan de hand van het volgende voorbeeld:
“ Esther wordt uitgeschreven door haar gemeente omdat ze een deel van het jaar in het buitenland is en te weinig in haar woning verblijft. Ze krijgt de status "vertrokken onbekend waarheen". De gemeente ziet geen mogelijkheid om haar opnieuw in te schrijven; ze past simpelweg niet in het systeem. De gevolgen van de uitschrijving, met status "vertrokken onbekend waarheen", zijn groot. Haar bedrijf is automatisch uitgeschreven bij de Kamer van Koophandel, ze bouwt geen AOW meer op, ze is uit haar ziektekostenverzekering gegooid, paspoort aanvragen zonder adres is niet mogelijk, en ook het kopen van een auto blijkt lastig. Niemand lijkt het probleem voor haar te kunnen oplossen, hiervoor is eerst aanpassing van wetgeving nodig: die is niet berekend op mensen die veel reizen, vooral naar het buitenland.”
(Ontleend aan Widlak & Peeters, De Digitale Kooi 2018, blz. 67-70.)
Duidelijk mag zijn dat de invloed van kunstmatige intelligentie op de rechtsstatelijkheid verstrekkend kan zijn. Tijd voor nieuwe wetgeving inzake bestuursrechtelijke aangelegenheden en wetgevingsprocessen? Mogelijk wel. Streven zal daarbij moeten zijn dat wetgeving zo veel mogelijk techniekonafhankelijk of techniekneutraal tot stand komt. De overheid staat wat dat betreft voor een behoorlijke uitdaging!
Privacy
Vrij recent werd de Algemene Verordening Gegevensbescherming van kracht. Doel van de AVG is de burger een betere bescherming te bieden tegen ongebreidelde dataverzameling en de verwerking van deze data.
Formeel moet een verwerker van persoonsgegevens de expliciete toestemming verkrijgen van betrokkenen om gegevens te verzamelen en te verwerken. Daarnaast vereist de AVG dat gegevens worden verzameld en verwerkt met een nauw omschreven doel en dat betrokkenen daar duidelijk over worden geïnformeerd. Voorts moet het mogelijk worden gemaakt om persoonsgegevens te (laten) verwijderen uit databases waar ze zijn opgeslagen: het recht op vergetelheid.
Internet of Things (IoT)
Met name het gebruik van blockchaintechnologie en the Internet of Things (IoT) botst op een aantal vlakken met de vereisten van de AVG. Gegevens worden namelijk ook verzameld zodra men de supermarkt binnenstapt, zonder dat dit expliciet aan de burger wordt medegedeeld. Embedded systemen zijn de grootste gebruikers van het internet, die autonome beslissingen kunnen nemen over data en onderling gegevens uitwisselen, zonder dat direct te achterhalen is waar die gegevens naartoe gaan of hoe ze worden verwerkt.
En wat te denken van blockchaintechnologie? Hoewel deze technologie op dit moment nog volop in ontwikkeling is, zal hier op zeer korte termijn ruim gebruik van worden gemaakt door bedrijven, overheden en (semi commerciële) instellingen.
Blockchaintechnologie
Blockchains kunnen datastromen efficiënter, transparanter en mogelijk betrouwbaarder maken. Ze zouden daardoor bijzonder goed kunnen worden toegepast in bijvoorbeeld supply chains. Partijen die zijn aangesloten bij een bepaald netwerk of een bepaalde keten- zoals een supply chain- kunnen via blockchain gelijktijdig beschikken over dezelfde gegevens. Aanpassen van gegevens is niet mogelijk zonder toestemming van alle partijen in de keten. Administratieve fraude zou op die manier kunnen worden tegengegaan. Ook zal het op termijn mogelijk zijn dat er op een directere manier handel kan worden gedreven; waarschijnlijk zullen we binnen enkele jaren een peer-to-peer economie kennen.
Recht op vergetelheid
Dat klinkt allemaal veelbelovend, nietwaar? Dat is het uiteraard ook. Belangrijke kanttekening is evenwel dat blockchain gegevens onveranderlijk en permanent kan opslaan. Foutieve gegevens kunnen niet worden gecorrigeerd -en gaan dus een eigen leven leiden- en de omstandigheid dat gegevens onuitwisbaar zijn, staat haaks op het in de AVG geformuleerde recht op vergetelheid.
Commerciële doelstellingen
Daarnaast is het zeer wel denkbaar dat bedrijven blockchains ontwikkelen ten behoeve van eigen commerciële doelstellingen en consumenten permanent zullen volgen. Dat is uiteraard een onwenselijke en overigens ook potentieel gevaarlijke situatie. Het gebruik van op algoritmen gebaseerde technologieën zoals blockchain en the Internet of Things raakt zonder enige twijfel aan onze privacy, en dus aan onze persoonlijke levenssfeer. Ironisch genoeg doet het belang van privacy zich doorgaans pas gevoelen op het moment dat het er niet meer is.
Privacywaarborgen uit de AVG voldoende?
De verwachting is dat de privacywaarborgen die de AVG beoogt te scheppen op termijn in ieder geval onvoldoende zullen blijken. Het daarom zaak dat alle betrokkenen- ontwikkelaars, gebruikers, overheden- met elkaar in gesprek blijven en prioriteit geven aan de ontwikkeling van techniekonafhankelijke wetgeving, waarbij bescherming en behoud van menselijke waardigheid en morele verantwoordelijkheid centraal staat. Alleen dan kan AI de kansen creëren die het belooft.