Innovation, Technology & Law

Blog over Kunstmatige Intelligentie, Quantum, Deep Learning, Blockchain en Big Data Law

Blog over juridische, sociale, ethische en policy aspecten van Kunstmatige Intelligentie, Quantum Computing, Sensing & Communication, Augmented Reality en Robotica, Big Data Wetgeving en Machine Learning Regelgeving. Kennisartikelen inzake de EU AI Act, de Data Governance Act, cloud computing, algoritmes, privacy, virtual reality, blockchain, robotlaw, smart contracts, informatierecht, ICT contracten, online platforms, apps en tools. Europese regels, auteursrecht, chipsrecht, databankrechten en juridische diensten AI recht.

Artificial Intelligence Impact Assessment

AIIA: Leidraad voor verantwoorde implementatie van kunstmatige intelligentie

Artificiële intelligentie (AI), machine learning, big data, DLT, robotica en infinite computing zijn grensverleggende technologische innovaties die de maatschappij fundamenteel en definitief zullen veranderen. Deze disruptieve technologieën maken dat we aan het begin staan van ‘a new age in human history’, oftewel de 4e industriële revolutie.

Robotisering en de 4e industriële revolutie

Industrie 4.0 kenmerkt zich door slimme onderling verbonden machines, het Internet of Things, industriële convergentie en razendsnelle digitalisering op mondiaal niveau. Hierin staat robotisering centraal. Robots gaan mensen ondersteunen en in bepaalde gevallen banen overnemen. In het begin zijn dat banen die geestdodend, gevaarlijk of fysiek zwaar zijn. Denk aan fabrieksarbeiders en automatisering. In een later stadium ook klantenservice, backoffice, audits en financiële administratie. Denk aan administratief personeel. Nog later raakt dit ook de transport- en mobiliteitssector waaronder de rol van chauffeur en machinist. Bij rechtszaken in eerste aanleg zien we wellicht ooit een robotrechter. Het is de verwachting dat AI in the long run meer banen zal creëren dan dat er zullen verdwijnen.

De AI Impact Assessment is een Leidraad voor verantwoorde implementatie van Kunstmatige Intelligentie.

De AI Impact Assessment is een Leidraad voor verantwoorde implementatie van Kunstmatige Intelligentie.

AI en slimme robots niet tegenover de mens, maar met de mens

Arbeidsmarkt en bedrijfsleven zullen derhalve in hoog tempo veranderen. Cross-sectoraal. De 4e industriële revolutie biedt ons kansen en uitdagingen als nooit tevoren. Kunstmatige intelligentie, en de manier waarop wij met zijn allen besluiten om te gaan met deze technologie, speelt hierbij een cruciale rol. Wij voorstaan AI for Good.

Gelijkheid, vrijheid en broederschap by design

Het is hierbij van belang dat de fundamentele normen en waarden uit de Franse Revolutie van 1791, gelijkheid, vrijheid en broederschap, vanaf de eerste regel code in het design van intelligentie machines worden ingeprogrammeerd. Wij plaatsen AI en slimme robots derhalve niet tegenover de mens, maar met de mens. Als een derde hand.

AI Impact Assessment: checklist voor toepassing artificiële intelligentie

Het Artificial Intelligence Impact Assessment is ontwikkeld door het ECP|Platform voor de InformatieSamenleving. Deze AIIA of AI Impact Assessment biedt ondernemers, onderzoekers, data scientists en softwareprogrammeurs een gedragscode waarmee AI veilig geïmplementeerd kan worden. Via een praktische checklist op zowel juridisch, technisch als ethisch vlak. De AI Impact Assessment is een wegwijzer voor toepassing van artificiële intelligentie. U kunt er voor kiezen om AI-systemen parallel te laten lopen aan bestaande bedrijfsprocessen (eerst de meerwaarde aantonen) of deze processen direct te vervangen danwel te upgraden door toepassing van AI. Zorg ervoor dat menselijke interventie mogelijk blijft.

De uitvoering van de AI Impact Assessment wordt bij voorkeur begeleid door een daartoe gespecialiseerd jurist.

Overzichtelijk stappenplan met Juridische en Ethische Normen

De Artificiële Intelligentie Impact Assessment (AIIA) bevat een overzichtelijk stappenplan met 8 stappen, aan de hand waarvan bedrijven inzichtelijk kunnen maken welke juridische en ethische normen van belang zijn bij de creatie en toepassing van AI-systemen en smart robotics. Ook maken de AIIA en de Gedragscode Artificiële Intelligentie helder welke motieven en beweegredenen de basis vormen van de te maken keuzes en beslissingen tijdens het AI implementatietraject. Dit maakt het gebruik van kunstmatige intelligentie en slimme algoritmes transparanter.

Risico-inschattingsinstrumenten

De AIIA vertoont verwantschap met andere risico-inschattingsinstrumenten zoals de Privacy Impact Assessment (PIA, ook wel Data Protection Impact Assessment (DPIA) of gegevensbeschermingseffectbeoordeling (GEB) genaamd). We zien eenzelfde logica terug bij de 3 Robotwetten van Asimov, de IBM Watson AI Guidelines (Everyday Ethics for Artificial Intelligence, A practical guide for designers & developers) en de 23 Asilomar AI principes. De AIIA heeft eveneens een gidsfunctie, en een vergelijkbaar moreel kompas.

Risicomanagement en zorgplicht

De PIA is vaak verplicht, waarbij de AIIA dit nog niet is. De AI Impact Assessment is evenwel niet geheel vrijblijvend. Een goed onderbouwd AIIA rapport kan gewicht in de schaal leggen wanneer het er echt op aankomt, zoals bij een rechtszaak over aansprakelijkheid van slimme robots, bij verzekeringskwesties of bij het aanwijzen van de verantwoordelijke bij maatschappij ontwrichtende gebeurtenissen. Er kan mee worden aangetoond dat er serieus risicomanagement is uitgevoerd en dat er aan een bepaalde zorgplicht is voldaan.

De AIIA vertoont verwantschap met andere risico-inschattingsinstrumenten zoals de Privacy Impact Assessment, en kan door bedrijven, tech startups en maatschappelijke organisaties worden gebruikt bij veilige en transparante toepassing van AI-systemen…

De AIIA vertoont verwantschap met andere risico-inschattingsinstrumenten zoals de Privacy Impact Assessment, en kan door bedrijven, tech startups en maatschappelijke organisaties worden gebruikt bij veilige en transparante toepassing van AI-systemen en smart robotics.

Gedragscode Artificiële Intelligentie

De startpunt van de AIIA vormt de Gedragscode Artificiële Intelligentie (GAI). Deze gedragscode vormt de basis van het raamwerk onder de AIIA. De Gedragscode Artificiële Intelligentie bestaat uit twee onderdelen: gemeenschappelijke Europese ethische en grondwettelijke waarden, rechtstatelijke principes en democratische randvoorwaarden, alsook praktijkregels en gedragsvoorschriften voor AI-toepassingen, deep learning algoritmes en autonome systemen.

Praktische checklist

De Gedragscode bevat een twintigtal punten waaraan de ontwikkeling en het gebruik van kunstmatige intelligentie moet voldoen. Deze twintig punten worden vervolgens uitgewerkt in een aantal concrete subvragen. Hierdoor kan de Gedragscode als praktische checklist worden gehanteerd, voordat men aan de 8 stappen van de AI Impact Assessment begint.

Intellectueel Eigendom

De checklist geeft bijvoorbeeld concrete vingerwijzingen over hoe om te gaan met privacy en intellectueel eigendom van de AI of onderdelen daarvan zelf, en het mogelijke IP van derden. Over intellectuele eigendomsrechten dienen uiteraard valide contractuele afspraken te worden gemaakt met en door de diverse rechthebbenden, zo nodig in combinatie met registraties en depot.

AI-toepassing in lijn met bestaande sectorspecifieke wet en regelgeving

Daarnaast dient te worden onderzocht of de AI-toepassing in lijn is met de bestaande wet en regelgeving van de sector waarin deze wordt geimplementeerd. Zowel nationaal (wetten en uitvoeringsbesluiten), Europees (Verordeningen en Richtlijnen) als internationaal (verdragen). Denk aan wetgeving inzake farmaceutica, de geneeskundige behandelingsovereenkomst en de Verordening Medical Devices bij eHealth applicaties, wearables en slimme zorgrobots.

Aanbieders, bouwers, gebruikers en belanghebbenden

Zowel de Gedragscode Artificiële Intelligentie als de AI Impact Assessment zijn opgesteld voor en gericht aan aanbieders en bouwers van AI-systemen, belanghebbenden bij AI-implementaties alsmede gebruikers van AI-toepassingen. Hieronder de 8 stappen ter uitvoering van het AI Impact Assessment. Ook stap 1 bevat een handige checklist met 9 vragen.

Stappenplan voor het uitvoeren van de AI Impact Assessment

  1. Bepaal aan de hand van 9 vragen de noodzaak voor het doen van een AI Impact Assessment, heeft de AI bijvoorbeeld een hoge mate van autonomie.

  2. Beschrijf de AI-toepassing en de context van deze toepassing en geef specificaties over het type AI-technologie, de data en de actoren die erbij betrokken zijn.

  3. Stel de baten van de AI-toepassing voor de organisatie, het individu en de maatschappij als geheel vast.

  4. Stel vast of het doel en de wijze waarop AI wordt ingezet naar ethische en juridische normen en wetmatigheden verantwoord is en breng risico’s in kaart.

  5. Stel vast of de AI-toepassing betrouwbaar, veilig en transparant is en documenteer welke maatregelen genomen zijn om veiligheid te waarborgen.

  6. Beoordeel of de AI-toepassing legitiem en proportioneel is waarbij alle betrokken belangen en waarden maximaal worden gediend, geen onnodige compromissen, positive sum in plaats van zero sum.

  7. Leg de resultaten, afwegingen en resultates van de voorgaande stappen nauwkeurig vast in een AIIA rapportage.

  8. Evalueer periodiek de ethische en juridische verantwoordbaarheid van de AI-toepassing, betrek daarbij alle stakeholders, creëer een feedback loop en actualiseer bij voortschrijdende inzichten danwel bij veranderende interne of externe omstandigheden.

De AI impact Assessment is derhalve een continu proces.

De Artificial Intelligence Impact Assessment is ontwikkeld door het ECP|Platform voor de InformatieSamenleving.

De Artificial Intelligence Impact Assessment is ontwikkeld door het ECP|Platform voor de InformatieSamenleving.

Welke technologische ontwikkelingen vinden er momenteel plaats?

Het bijzondere aan emerging technologies rondom AI is enerzijds dat zij zichzelf versterkend zijn en anderzijds dat zij zich in exponentieel tempo voltrekken. Dus niet in een lineair, evolutionair tempo (Darwin, miljoenen jaren), zoals bij de mens, maar met een rotvaart. Het is belangrijk om op de hoogte te zijn van deze ontwikkelingen en hun real world toepassing en implicaties.

Infinite computing, neuromorphic chips, AI-mind cloud en spintronics

Op dit moment voltrekken zich veelbelovende innovaties op het gebied van cognitieve computing en neuromorphic chips met heterogene brain-inspired architectuur, infinite computing, expert system’s, deep learning en neurale netwerken (Hopfield Net, backpropagation, Restricted Bolzmann Machine, perceptrons), AI-mind cloud, neurotechnology & brain-machine interfaces, robotic limbic system’s, cybernetics, energy and memory bandwidth optimizations, memristors, nanomaterials, ubiquitous computing, computer vision, natural language processing, extended reality, DLT blockchain, exaflop supercomputers, edge devices (Internet of Things), biocomputing, quantum computing en spintronics.

Wijsheid versus intelligentie

De AI Singulariteit refereert aan het moment dat kunstmatige intelligentie bewust van zichzelf wordt. Met Harari (Homo Deus) geloven wij dat AI zich na de Singulariteit mogelijk niet meer zal laten regisseren. Om die reden is het belangrijk om menselijke waarden en morele codes in te bouwen in het algoritme en het neurale netwerk van een AI. Algoritmische bias dient te worden voorkomen. Pure, bovenmenselijke denkkracht – waarin Artificial General Intelligence (AGI) dan ongetwijfeld zal excelleren is mooi, maar ethiek, normbesef en compassie mogen hierbij niet ontbreken. Het is een kwestie van wijsheid versus rauwe intelligentie.

 

Privacyvraagstukken en accessibility

Een ander aandachtspunt is de vraag hoe om te gaan met privacyvraagstukken en een open internet. Privacy staat sinds de invoering van de AVG meer in de picture. Op dit moment draait het bij gecentraliseerde software applicaties met name om grenzeloze toegang tot informatie en connectiviteit (accessibility) van apparaten. Toegang tot en gebruik van vaak persoonlijke data prevaleert hierbij boven privacy. Een gedecentraliseerde cloud gebaseerd op blockchainprincipes zou dit kunnen veranderen. Alleen op die manier kunnen privacy en toegang tot gegevens samenleven in cyberspace.

Cybersecuritywetgeving: NIB-richtlijn (EU) 2016/1148) / NIS Directive on Network & Information Security

Op 9 november 2018 is de Wet beveiliging netwerk- en informatiesystemen (Wbni) in Nederland in werking getreden. De Wbni is cybersecuritywetgeving en vormt een implementatie van de Europese NIB-richtlijn (EU) 2016/1148) oftewel de NIS Directive on Network & Information Security. Doel van de NIS-Richtlijn is, net zoals bij de eIDAS Verordening, het internet veiliger maken. Waaronder het treffen van beveiligingsmaatregelen voor cruciale netwerk- en informatiesystemen in de Europese Unie.

Er geldt een zorgplicht en een meldplicht (voor hackpogingen, DDos-attacks en cybersecurity breach) voor aanbieders van essentiële diensten voor de samenleving en digitaledienstverleners. Digitaledienstverleners zoals online platforms, cloudcomputingdiensten en zoekmachines dienen NIS-Compliant te zijn.

IEC 62443-norm

De opkomst van kunstmatige intelligentie en het Internet of Things (IoT) vraagt om heldere ISO, NEN, ANSI en IEC-normen en cross-sectoraal geaccepteerde normen, checklists, best practices en certificeringen. Vanuit het oogpunt van cybersecurity biedt de IEC 62443-norm (Cyber security voor Industrial Automation and Control Systems) een lijst met 7 fundamentele veiligheidseisen. Dit zijn toegangscontrole, authenticatie, onweerlegbaarheid, data-vertrouwelijkheid en privacy, communicatiebeveiliging, data-integriteit en de beschikbaarheid van hulpbronnen zoals toegang tot het netwerk.

Veiligheidseisen AI-toepassingen IoT-apparaten

Deze veiligheidseisen zijn afkomstig uit de industriële automatisering. Men vindt een aantal van deze basisprincipes terug in het AI Impact Assessment, het Privacy & Security by Design en Algorithmic Accountability gedachtegoed en het Data Protection Impact Assessment (DPIA).

Mede op basis van de IEC 62443 standaard kan er een cybersecuritystrategie worden opgetuigd ten aanzien van AI-toepassingen en onderling verbonden IoT-apparaten. Zodat consumenten, bedrijven, burgers en patiënten op een veilige en verantwoorde manier gebruik kunnen maken van deze toepassingen. Veiligheid voor alle end users.

Dystopische toekomstscenario’s

Al deze waarborgen samen voorkomen dystopische toekomstscenario’s zoals we die kennen uit visionaire science fiction films als The Matrix Trilogy, Blade Runner, Ghost In The Machine, Westworld, Mad Max, Robocop, The Terminator, Brazil, Metropolis en het boek 1984. Denk bij dit laatste aan monotone, Orwelliaanse Versificator muziek en aan proletarische literatuur en entertainment. De Versificator is im grunde een AI.

Universele Robotwetten van Asimov

Ten aanzien van het gedrag van robots in de relatie tot de mensheid heeft sci-fi auteur Isaac Asimov 3 universele robotwetten geformuleerd. Deze gedragsregels uit 1942, waaronder veiligheid en verantwoordelijkheid, moeten worden ingebouwd in slimme robots. De eerste wet schrijft voor dat robots mensen geen letsel mogen toebrengen door handelen of nalaten. Asimov zag de Robot als een geavanceerd soort gereedschap.

Asilomar AI Principes

Ook de 23 Asilomar AI Principles bieden een leidraad bij verantwoorde toepassing en ontwikkeling van kunstmatige intelligentie en robotica in onze samenleving. Deze internationale richtsnoeren zijn in 2017 gedurende de Asilomar Conferentie in Californië geformuleerd. Ze kunnen worden beschouwd als een praktische follow up van rapporten die de afgelopen jaren verschenen over de consequenties van toepassing van kunstmatige intelligentie in onze samenleving. Waaronder het Stanford 100 jaar rapport, 2 rapporten van het Witte Huis, een IEEE rapport en materiaal van het Partnership on AI.

Ook de 23 Asilomar AI Principles hebben een gidsfunctie bij verantwoorde toepassing en ontwikkeling van kunstmatige intelligentie en robotica in onze samenleving. Doel is de mensheid vooruit helpen.

Ook de 23 Asilomar AI Principles hebben een gidsfunctie bij verantwoorde toepassing en ontwikkeling van kunstmatige intelligentie en robotica in onze samenleving. Doel is de mensheid vooruit helpen.

Doel van AI is mensheid vooruit helpen

Kunstmatige intelligentie heeft inmiddels nuttige hulpmiddelen opgeleverd die dagelijks door mensen over de hele wereld worden gebruikt. De voortdurende ontwikkeling, geleid door onderstaande 23 Asilomar AI principes, biedt spectaculaire mogelijkheden om de mensheid in de komende decennia en de komende eeuwen vooruit te helpen en te versterken. De Asilomar AI gids maakt globaal een onderscheid tussen de categorieën research strategie & onderzoeksproblemen, ethiek en fundamentele waarden, datarechten en lange termijnproblemen. Doel is het verbeteren van de levensomstandigheden van alle inwoners op aarde.

Research Strategie en Onderzoeksproblemen

1) Onderzoeksdoel: het doel van AI-onderzoek zou nooit moeten zijn om richtingloze intelligentie te creëren, maar altijd om nuttige, beneficiaire intelligentie te scheppen.

2) Financiering van onderzoek: investeringen in AI moeten gepaard gaan met financiering voor onderzoek naar het nuttige gebruik ervan, inclusief gevoelige vragen over netelige kwesties in de informatica, economie, rechten, ethiek en sociale studies, zoals:

· Hoe kunnen we toekomstige AI-systemen zodanig robuust maken, dat ze doen wat we willen zonder defect te raken of gehackt te worden?

· Hoe kunnen we onze welvaart vergroten door automatisering met behoud van grondstoffen, hulpbronnen, doel en roeping der mensheid?

· Hoe kunnen we onze rechtsstelsels moderniseren teneinde eerlijker en efficiënter te zijn, gelijke tred te houden met AI en de risico's te beheersen die aan AI zijn verbonden?

· Met welke fundamentele normen en waarden moet AI in overeenstemming zijn en welke juridische en ethische status zou AI moeten hebben?

3) Verband tussen wetenschap en politiek: er moet een constructieve samenwerking en gezonde uitwisseling van denkbeelden zijn tussen AI-onderzoekers en beleidsmakers.

4) Onderzoekscultuur: er moet een cultuur van samenwerking, vertrouwen en transparantie worden bevorderd tussen onderzoekers en ontwikkelaars van AI.

5) Racevermijding: teams die AI-systemen ontwikkelen moeten uit hun silo komen en actief samenwerken om te voorkomen dat gemeenschappelijke veiligheidsnormen ondersneeuwen.

Ethiek en waarden

6) Veiligheid: AI-systemen moeten tijdens hun gehele operationele levensduur verifieerbaar veilig en beveiligd zijn.

7) Mislukte transparantie: als een AI-systeem schade aanricht, moet het mogelijk zijn om vast te stellen waardoor dit komt. De reden hiervan moet kunnen worden achterhaald.

8) Juridische transparantie: elke betrokkenheid van een autonoom systeem bij de rechterlijke besluitvorming moet een toereikende, deugdelijke en begrijpelijke verklaring bevatten die controleerbaar is door een competente en daartoe bevoegde menselijke autoriteit.

9) Verantwoordelijkheid: ontwerpers en bouwers van geavanceerde AI-systemen zijn belanghebbenden in de morele implicaties van hun gebruik, misbruik en hun acties, met een verantwoordelijkheid en gelegenheid om die implicaties praktisch vorm te geven.

10) Afstemming van waarden tussen mens en machine: zeer autonome AI-systemen moeten zo worden ontworpen dat hun doelen en gedragingen tijdens de hele operatie en levensduur met 100% zekerheid in lijn zijn en blijven met gemeenschappelijke menselijke waarden.

11) Menselijke waarden: AI-systemen moeten zodanig worden ontworpen, geprogrammeerd, bestuurd en geëxploiteerd dat ze verenigbaar zijn met universele idealen van menselijke waardigheid, culturele diversiteit alsmede fundamentele rechten en grondwettelijke vrijheden van de mens.

12) Persoonlijke privacy: mensen moeten het privacyrecht hebben om de door hen gegenereerde gegevens te openen, te beheren en te controleren, gegeven de kracht van AI-systemen om die persoonlijke data te analyseren en te gebruiken.

13) Vrijheid en privacy: de toepassing van AI op persoonlijke gegevens mag de werkelijke of waargenomen vrijheid van mensen niet op onredelijke wijze beperken.

14) Gedeeld voordeel: AI-technologieën moeten aan zoveel mogelijk mensen ten goede komen en zoveel mogelijk mensen ondersteunen.

15) Gedeelde welvaart: de economische welvaart die door AI wordt gecreëerd, moet breed worden gedeeld, ten bate van de gehele mensheid.

16) Menselijke controle: mensen moeten kiezen of, in welke gevallen en op welke wijze ze beslissingen moeten delegeren aan AI-systemen om door de mens gekozen doelen te bereiken.

17) Geen ontwrichting: de macht en verantwoordelijkheid die wordt verleend door het programmeren en besturen van zeer geavanceerde AI-systemen, moet de sociale en maatschappelijke processen waarvan de gezondheid van de samenleving en het welzijn der mensheid afhankelijk is altijd respecteren en verbeteren, en nooit ondermijnen.

18) AI Wapenwedloop: een wapenwedloop in dodelijke autonome wapens moet worden vermeden.

Problemen en uitdagingen op langere termijn

19) Capaciteiten waarschuwing: indien er geen consensus bestaat, moeten we sterke veronderstellingen vermijden met betrekking tot de bovengrenzen van toekomstige AI-capaciteiten.

20) Importantie: geavanceerde AI kan een ingrijpende verandering in de geschiedenis van het leven op aarde teweegbrengen en moet gepland en beheerd worden met evenredig grote zorg en middelen.

21) Risico's: risico's van AI-systemen, met name catastrofale of existentiële risico's, moeten worden onderworpen aan plannings- en mitigatie-inspanningen die evenredig zijn met de verwachte impact.

22) Recursieve zelfverbetering: AI-systemen die zijn ontworpen om zichzelf recursief te verbeteren (zoals bij deep reinforcement learning) of zichzelf te vermenigvuldigen op een manier die kan leiden tot een exponentieel snel toenemende kwaliteit of kwantiteit moeten worden onderworpen aan strikte veiligheids- en controlemaatregelen.

23) Algemeen welzijn: superintelligentie mag alleen worden ontwikkeld ten dienste van breed gedeelde ethische idealen en ten behoeve van de het algemeen welzijn van de gehele mensheid in tegenstelling tot de belangen van slechts één staat of organisatie.

Artificiële Intelligentie & Recht kan u terzijde staan bij de uitvoering van de AI Impact Assessment. Ons kantoor is gespecialiseerd in de innovatieve technologieën als AI, Machine Learning, Big Data en Internet of Things (IoT) in tal van sector…

Artificiële Intelligentie & Recht kan u terzijde staan bij de uitvoering van de AI Impact Assessment. Ons kantoor is gespecialiseerd in de innovatieve technologieën als AI, Machine Learning, Big Data en Internet of Things (IoT) in tal van sectoren, waaronder de gezondheidszorg en medical devices, robotics, entertainment & kunst, retail en de levensmiddelenindustrie.

7 principes van Privacy en Security by Design

Het is bij kunstmatige intelligentie, big data, robotica en cloud computing algoritmes cruciaal om privacy waarborgen van meet af aan te embedden in de applicatie. Dit noemt men een Privacy by Design Framework. Het gaat hierbij om de implementatie van privacy enhancing technology (PET) in het algoritme c.q. het AI-systeem. Met Privacy by Design en het aanverwante Privacy by Default beoogt men menselijke waarden in te bouwen in een machine.

Het Privacy by Design systeem is gebaseerd op 7 principes. Deze privacyvoorschriften zijn bedacht door de Canadese Ann Cavoukian. We noemen ze hieronder:

  1. de gebruiker staat centraal - respect voor de privacy van gebruikers;

  2. geen extra actie door individu vereist - privacy als default instelling;

  3. preventief ipv correctief - proactief niet reactief;

  4. privacy ingebed in het design van het IT systeem en de workflow van het bedrijf;

  5. houd het open - zichtbaarheid en transparantie;

  6. win win situatie zonder onnodige compromissen - volledige functionaliteit -positief-som, niet nul-som – geen trade offs;

  7. volledige levenscyclus bescherming - end to-end beveiliging.

Vanaf de eerste regel code…

Gedragscodes, richtsnoeren en best practices van Privacy en Security by Design dienen vanaf de eerste regel code in smart contracts, blockchain toepassingen en artificiële intelligentie systemen te worden geïmplementeerd. Dit geldt voor de Privacy Impact Assessment (PIA) en de AI Impact Assessment, maar evenzeer voor het beginsel van Algorithmic Accountability.

Privacy Impact Assessment: 8 stappen

Een Privacy Impact Assessment (PIA) is onder omstandigheden verplicht. U mag evenwel naar eigen inzicht een sectorspecifiek PIA kader opstellen dat past bij de branche. Uiteraard zolang dit geheel voldoet aan de voorschriften en richtlijnen van de Algemene Verordening Gegevensbescherming (AVG). Met andere woorden: er bestaat enige mate van vrijblijvendheid en zelfregulering zolang dit binnen de Europese kaders uit de Privacy Wetgeving blijft.

  • Stap 1 begint altijd met de beoordeling van de noodzaak van het doen van een PIA.

  • Stap 2 is het op papier zetten van een systematische beschrijving van de gegevensverwerking.

  • Stap 3 is de beoordeling van de noodzaak en de proportionaliteit / evenredigheid van de verwerkingen van de privé data.

  • Stap 4 is de identificatie en documentatie van privacy risico’s.

  • Stap 5 is de vaststelling en evaluatie van privacy oplossingen, waaronder maatregelen om privacy risico’s op te lossen zoals het verminderen van de impact die privacy risico’s kunnen hebben. Gedurende deze stap kan worden aangetoond dat de organisatie aan de richtlijnen van de AVG voldoet.

  • Stap 6 is het betrekken van de belanghebbenden in het PIA proces, waaronder de door u aangestelde functionaris voor gegevensbescherming.

  • Stap 7 is het beschrijven en documenteren van de vorige stappen, waaronder de uitkomsten en bevindingen van de beoordeling, in een PIA rapportage.

  • Stap 8 betreft de vervolghandelingen, en wel het integreren van de PIA uitkomsten, resultaten en inzichten in de werkwijze van uw bedrijf en in uw lopende projecten. Publicatie van uw PIA rapport is tenslotte optioneel en niet verplicht.


ECP | Platform voor de InformatieSamenleving ‘Het verhaal van digitaal: Samen vormgeven aan onze digitale samenleving’. Artificiële Intelligentie & Recht is lid van het ECP.

ECP | Platform voor de InformatieSamenleving ‘Het verhaal van digitaal: Samen vormgeven aan onze digitale samenleving’. Artificiële Intelligentie & Recht is lid van het ECP.

ECP-visie op Digitalisering: Het verhaal van Digitaal

In november 2018 publiceerde het ECP | Platform voor de InformatieSamenleving ‘Het verhaal van digitaal: Samen vormgeven aan onze digitale samenleving’. In deze visie op digitalisering van de maatschappij pleit het ECP voor slimme, cross-sectorale publiek-private samenwerking. Met een focus op domeinen zoals de zorg, energie, opvoeding, onderwijs en de faciliterende rol van de overheid. Kernwoorden zijn verbinding en inclusiviteit. Multidisciplinaire samenwerking waarbij wetenschap en onderwijs, het bedrijfsleven, de overheid en maatschappelijke vertegenwoordigers zijn betrokken.

Triple Helix Model

Het ECP voorstaat co-operatie en synergie op basis van het triple helix model. Kernwoorden hierbij zijn kennis infrastructuur, een innovatievriendelijk ondernemersklimaat en een op gezamenlijke kennis en denkkracht gebaseerde economie. Voor een optimale samenwerking is een gezamenlijke visie en een gemeenschappelijk doel essentieel. We zullen het samen, met zijn allen moeten doen want niemand kan het alleen.

Aanjagers van de digitale revolutie zijn elkaar versterkende disruptieve technologieën zoals met name kunstmatige intelligentie, big data, deep learning, blockchain, 5G, cloud computing en DLT-toepassingen (Distributed Ledger technology oftewel blockchain).

Nederlandse AI Strategie

Met de visie ‘Het verhaal van digitaal: Samen vormgeven aan onze digitale samenleving’, de Gedragscode Artificiële Intelligentie AI Impact Assessment geeft het ECP een belangrijke voorzet voor de langverwachte Nederlandse AI-strategie. In die strategie dienen topics als het onderhouden en moderniseren van onze digitale infrastructuur, waaronder de overgang van 4G LTE naar 5G netwerk, het moderniseren van het basisonderwijs alsook het zorgen voor een aantrekkelijk vestigingsklimaat voor bedrijven te worden meegenomen.

Conferentie Nederland Digitaal

Veel van de ons omringende landen hebben al een dergelijke AI-strategie geformuleerd. Dutch Digital Delta heeft inmiddels de aftrap gegeven voor de nationale AI-strategie, in een samenwerking met Topteam ICT, VNO-NCW, ICAI, NWO en TNO (ondersteund door Boston Consultancy Group) verenigd in AINED. Uit de eerste onderzoeksconclusies van dit publiek-private samenwerkingsverband volgt dat het belangrijk is om in Nederland geen momentum te verliezen ten aanzien van implementatie van en draagvlak voor kunstmatige intelligentie. Lees hier het volledige AINED rapport AI voor Nederland van oktober 2018, dat een aanzet tot een eenvormige nationale Artificial Intelligence strategie beoogt te geven. De Nederlandse AI-strategie zal in maart 2019 op de Conferentie Nederland Digitaal worden gepresenteerd.

Europese AI Alliantie

De Europese Commissie gaat een ethische en juridische code uitwerken die alle aspecten van AI omvat en daarbij rekening houdt met grondrechten, gegevensbescherming en transparantie. Dit ethisch juridisch kader, inclusief een definitie van AI, wordt door de Europese AI Alliantie gerealiseerd en wordt naar verwachting eind 2018 begin 2019 gepresenteerd.


Smart Industry Jaarevent, ICT.OPEN en Digitale Dag

Het doel van de Conferentie Nederland Digitaal is om samen richting te geven en oplossingen zoeken voor maatschappelijke en economische uitdagingen in onze samenleving en economie die in hoog tempo digitaliseert. Om deze uitdagingen, risico’s en kansen in kaart te brengen komen vertegenwoordigers uit de wetenschap, het bedrijfsleven, maatschappelijke organisaties en overheid samen. De conferentie bestaat tenslotte uit verschillende onderdelen, waaronder het Smart Industry Jaarevent, ICT.OPEN en een afsluitende Digitale Dag.

Algoritmes, Artificiële Intelligentie, Big data, Cloud Computing, Cognitive Computing, Computer Vision, Deep Learning, Extended Reality, Grondrechten, Informatierecht, Intellectueel Eigendom, Internet of Things, Internetrecht, Juridisch Advies, Kunstmatige Intelligentie, Nano Engineering, Neuraal Netwerk, Quantum Computing, Recht, Robotica, Robotlaw, Tech Startups, WetgevingMauritz KopArtificiële Intelligentie & RechtArtificial Intelligence Impact Assessment, robotisering, 4e industriële revolutie, slimme robots, kunstmatige intelligentie, AI Impact Assessment, checklist, stappenplan, ECP, Platform voor de InformatieSamenleving, jurist, legal, ethische normen, risico-inschattingsinstrumenten, Privacy Impact Assessment, PIA, Asimov, GEB, Gedragscode Artificiële Intelligentie, rechtsstatelijkheid, intellectueel eigendom, wet en regelgeving, belanghebbenden, Infinite computing, neuromorphic chips, AI-mind clouds, spintronics, wijsheid, compassie, Harari Home Deus, Singularity, Artificial General Intelligence, bias, Privacyvraagstukken, accessibility, blockchain, dystopische toekomstscenario’s, Orwelliaanse Versificator, 1984, The Matrix, Blade Runner, Ghost In The Machine, Westworld, Mad Max, Robocop, The Terminator, Brazil, Metropolis, Asilomar AI Principes, Privacy en Security by Design, Triple Helix Model, Nederlandse AI Strategie, Conferentie Nederland Digitaal, arbeidsmarkt, disruptie, leidraad, gidsfunctie, open internet, digitalisering, neuraal netwerk, machine learning, Internet of Things, data scientist, software programmeur, Europese AI Alliantie, Cybersecuritywetgeving, NIB-Richtlijn (EU) 2016/1148), NIS-Directive, IEC 62443, eIDAS, veiligheidseisen, Wbni, ISO, NEN, ANSI, end users, IBM Watson, AI Guidelines, ICAI, AINED