Innovation, Technology & Law

Blog over Kunstmatige Intelligentie, Quantum, Deep Learning, Blockchain en Big Data Law

Blog over juridische, sociale, ethische en policy aspecten van Kunstmatige Intelligentie, Quantum Computing, Sensing & Communication, Augmented Reality en Robotica, Big Data Wetgeving en Machine Learning Regelgeving. Kennisartikelen inzake de EU AI Act, de Data Governance Act, cloud computing, algoritmes, privacy, virtual reality, blockchain, robotlaw, smart contracts, informatierecht, ICT contracten, online platforms, apps en tools. Europese regels, auteursrecht, chipsrecht, databankrechten en juridische diensten AI recht.

Berichten in Artificiële Intelligentie
EU Artificial Intelligence Act: The European Approach to AI

Stanford - Vienna Transatlantic Technology Law Forum, Transatlantic Antitrust and IPR Developments, Stanford University, Issue No. 2/2021

New Stanford tech policy research: “EU Artificial Intelligence Act: The European Approach to AI”.

Download the article here: Kop_EU AI Act: The European Approach to AI

EU regulatory framework for AI

On 21 April 2021, the European Commission presented the Artificial Intelligence Act. This Stanford Law School contribution lists the main points of the proposed regulatory framework for AI.

The Act seeks to codify the high standards of the EU trustworthy AI paradigm, which requires AI to be legally, ethically and technically robust, while respecting democratic values, human rights and the rule of law. The draft regulation sets out core horizontal rules for the development, commodification and use of AI-driven products, services and systems within the territory of the EU, that apply to all industries.

Legal sandboxes fostering innovation

The EC aims to prevent the rules from stifling innovation and hindering the creation of a flourishing AI ecosystem in Europe. This is ensured by introducing various flexibilities, including the application of legal sandboxes that afford breathing room to AI developers.

Sophisticated ‘product safety regime’

The EU AI Act introduces a sophisticated ‘product safety framework’ constructed around a set of 4 risk categories. It imposes requirements for market entrance and certification of High-Risk AI Systems through a mandatory CE-marking procedure. To ensure equitable outcomes, this pre-market conformity regime also applies to machine learning training, testing and validation datasets.

Pyramid of criticality

The AI Act draft combines a risk-based approach based on the pyramid of criticality, with a modern, layered enforcement mechanism. This means, among other things, that a lighter legal regime applies to AI applications with a negligible risk, and that applications with an unacceptable risk are banned. Stricter regulations apply as risk increases.

Enforcement at both Union and Member State level

The draft regulation provides for the installation of a new enforcement body at Union level: the European Artificial Intelligence Board (EAIB). At Member State level, the EAIB will be flanked by national supervisors, similar to the GDPR’s oversight mechanism. Fines for violation of the rules can be up to 6% of global turnover, or 30 million euros for private entities.

CE-marking for High-Risk AI Systems

In line with my recommendations, Article 49 of the Act requires high-risk AI and data-driven systems, products and services to comply with EU benchmarks, including safety and compliance assessments. This is crucial because it requires AI infused products and services to meet the high technical, legal and ethical standards that reflect the core values of trustworthy AI. Only then will they receive a CE marking that allows them to enter the European markets. This pre-market conformity mechanism works in the same manner as the existing CE marking: as safety certification for products traded in the European Economic Area (EEA).

Trustworthy AI by Design: ex ante and life-cycle auditing

Responsible, trustworthy AI by design requires awareness from all parties involved, from the first line of code. Indispensable tools to facilitate this awareness process are AI impact and conformity assessments, best practices, technology roadmaps and codes of conduct. These tools are executed by inclusive, multidisciplinary teams, that use them to monitor, validate and benchmark AI systems. It will all come down to ex ante and life-cycle auditing.

The new European rules will forever change the way AI is formed. Pursuing trustworthy AI by design seems like a sensible strategy, wherever you are in the world.

Meer lezen
De Wet op de Artificiële Intelligentie

Een bewerkte versie van deze bijdrage is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/wet-artificiele-intelligentie-belangrijkste-punten/

Nieuwe regels voor AI gedreven producten, diensten en systemen

Op 21 april 2021 presenteerde de Europese Commissie haar langverwachte Wet op de Artificiële Intelligentie (AI). Deze concept Verordening geeft regels voor de ontwikkeling, commodificatie en gebruik van AI gedreven producten, diensten en systemen binnen het territorium van de Europese Unie. Het was bemoedigend te zien dat het team van President Ursula von der Leyen een belangrijk aantal van onze strategische aanbevelingen op het gebied van de regulering van AI heeft overgenomen, danwel zelfstandig tot dezelfde conclusies is gekomen.

Doelstellingen wettelijk kader voor AI

De concept Verordening biedt horizontale overkoepelende kernregels voor kunstmatige intelligentie die op alle industrieën (verticals) van toepassing zijn. De wet beoogt de hoge maatstaven van het EU Trustworthy AI paradigma te codificeren, dat voorschrijft dat AI wettig, ethisch en technisch robuust dient te zijn en daartoe 7 vereisten hanteert.

De Wet op de Artificiële Intelligentie heeft de volgende 4 doelstellingen:

1. ervoor zorgen dat AI-systemen die in de Unie in de handel worden gebracht en gebruikt, veilig zijn en de bestaande wetgeving inzake grondrechten en waarden van de Unie eerbiedigen;

2. rechtszekerheid garanderen om investeringen en innovatie in AI te vergemakkelijken;

3. het beheer en de doeltreffende handhaving van de bestaande wetgeving inzake grondrechten en veiligheidsvoorschriften die van toepassing zijn op AI-systemen, verbeteren;

4. de ontwikkeling van een eengemaakte markt voor wettige, veilige en betrouwbare AI-toepassingen vergemakkelijken en marktversnippering voorkomen.“

Risico gebaseerde aanpak kunstmatig intelligente applicaties

Om deze doelstellingen te realiseren combineert de concept Artificial Intelligence Act een risk-based approach op basis van de pyramid of criticality, met een modern, gelaagd handhavingsmechanisme. Dit houdt onder meer in dat er voor AI applicaties met een verwaarloosbaar risico een licht wettelijk regime geldt, en onacceptabel risico applicaties verboden worden. Tussen deze 2 uitersten gelden er naarmate het risico toeneemt strengere voorschriften. Deze variëren van vrijblijvende zelfregulerende soft law impact assessments met gedragscodes, tot zwaar, multidisciplinair extern geauditeerde compliance vereisten inzake kwaliteit, veiligheid en transparantie inclusief risicobeheer, monitoring, certificering, benchmarking, validatie, documentatieplicht en markttoezicht gedurende de levenscyclus van de toepassing.

Handhaving en governance

De definitie van hoog risico AI applicaties binnen de diverse industriële sectoren is nog niet in steen gehouwen. Een ondubbelzinnige risicotaxonomie zal bijdragen aan rechtszekerheid en biedt belanghebbenden een adequaat antwoord op vragen over aansprakelijkheid en verzekering. Om ruimte voor innovatie door SME’s waaronder tech-startups te waarborgen, worden er flexibele AI regulatory sandboxes geïntroduceerd en is er IP Action Plan opgesteld voor intellectueel eigendom. De concept Verordening voorziet tenslotte in de installatie van een nieuwe handhavende instantie op Unieniveau: het European Artificial Intelligence Board. De EAIB zal op lidstaatniveau worden geflankeerd door nationale toezichthouders.

Meer lezen
Democratic Countries Should Form a Strategic Tech Alliance

Stanford - Vienna Transatlantic Technology Law Forum, Transatlantic Antitrust and IPR Developments, Stanford University, Issue No. 1/2021

New Stanford innovation policy research: “Democratic Countries Should Form a Strategic Tech Alliance”.

Download the article here: Kop_Democratic Countries-Strategic Tech Alliance-Stanford Law

Exporting values into society through technology

China’s relentless advance in Artificial Intelligence (AI) and quantum computing has engendered a significant amount of anxiety about the future of America’s technological supremacy. The resulting debate centres around the impact of China’s digital rise on the economy, security, employment and the profitability of American companies. Absent in these predominantly economic disquiets is what should be a deeper, existential concern: What are the effects of authoritarian regimes exporting their values into our society through their technology? This essay will address this question by examining how democratic countries can, or should respond, and what you can do about it to influence the outcome.

Towards a global responsible technology governance framework

The essay argues that democratic countries should form a global, broadly scoped Strategic Tech Alliance, built on mutual economic interests and common moral, social and legal norms, technological interoperability standards, legal principles and constitutional values. An Alliance committed to safeguarding democratic norms, as enshrined in the Universal Declaration of Human Rights (UDHR) and the International Covenant on Civil and Political Rights (ICCPR). The US, the EU and its democratic allies should join forces with countries that share our digital DNA, institute fair reciprocal trading conditions, and establish a global responsible technology governance framework that actively pursues democratic freedoms, human rights and the rule of law.

Two dominant tech blocks with incompatible political systems

Currently, two dominant tech blocks exist that have incompatible political systems: the US and China. The competition for AI and quantum ascendancy is a battle between ideologies: liberal democracy mixed with free market capitalism versus authoritarianism blended with surveillance capitalism. Europe stands in the middle, championing a legal-ethical approach to tech governance.

Democratic, value-based Strategic Tech Alliance

The essay discusses political feasibility of cooperation along transatlantic lines, and examines arguments against the formation of a democratic, value-based Strategic Tech Alliance that will set global technology standards. Then, it weighs the described advantages of the establishment of an Alliance that aims to win the race for democratic technological supremacy against disadvantages, unintended consequences and the harms of doing nothing.

Democracy versus authoritarianism: sociocritical perspectives

Further, the essay attempts to approach the identified challenges in light of the ‘democracy versus authoritarianism’ discussion from other, sociocritical perspectives, and inquires whether we are democratic enough ourselves.

How Fourth Industrial Revolution (4IR) technology is shaping our lives

The essay maintains that technology is shaping our everyday lives, and that the way in which we design and utilize our technology is influencing nearly every aspect of the society we live in. Technology is never neutral. The essay describes that regulating emerging technology is an unending endeavour that follows the lifespan of the technology and its implementation. In addition, it debates how democratic countries should construct regulatory solutions that are tailored to the exponential pace of sustainable innovation in the Fourth Industrial Revolution (4IR).

Preventing authoritarianism from gaining ground

The essay concludes that to prevent authoritarianism from gaining ground, governments should do three things: (1) inaugurate a Strategic Tech Alliance, (2) set worldwide core rules, interoperability & conformity standards for key 4IR technologies such as AI, quantum and Virtual Reality (VR), and (3) actively embed our common democratic norms, principles and values into the architecture and infrastructure of our technology.

Meer lezen
Workshop Juridische Aspecten AI & Data bij TNO - NL AIC Startups & Scaleups TekDelta Event

Op 24 september 2020 gaf Stanford Law School Fellow Mauritz Kop een masterclass over de juridische dimensie van kunstmatige intelligentie en informatie aan de getalenteerde deelnemers van de Werkgroep Startups & Scaleups van de Nederlandse AI Coalitie (NL AIC), in het kantoor van TNO Research in Den Haag. De workshop maakte onderdeel uit van het TekDelta | NL AIC startup accelerator event, met als centraal thema het versnellen en faciliteren van innovatie door het verbinden van startende ondernemingen met bestaande leading organisaties met slagkracht: het samen bouwen aan een succesvol high tech ecosysteem in Nederland.

Masterclass 'Juridische Aspecten van AI & Data’

De 2,5 uur durende masterclass 'Juridische Aspecten van AI & Data' bij TNO verschafte de cursisten duidelijkheid over de regels voor data delen, privacy en gegevensbescherming, alsmede juridisch en economisch eigendom van informatie. We behandelden onderwerpen variërend van de bescherming van intellectueel eigendom op het AI-systeem, de software, hardware en apps, clearance van data tot het anticiperen op de aanstaande AI & Data Governance wetten van de Europese Commissie.

Multidisciplinair Panel voor Verantwoord Data Delen

Dezelfde middag vond er vanuit het TNO gebouw een online seminar plaats speciaal voor startups, onder leiding van Anita Lieverdink, Senior Orchestrator of Innovation at TNO, Directeur van TekDelta en Program Manager van de Werkgroep Startps & Scaleups van de Nederlandse AI Coalitie.

AIRecht managing partner Mr. Kop nam als juridisch expert deel in het panel dat ging over verantwoord data delen. Het was goed om deel te nemen aan dit multidisciplinaire panel en samen met onze collega's oplossingen te verkennen voor het versneld en verantwoord delen van gegevens. Het is cruciaal en urgent om belemmeringen voor de inzet van benevolente AI weg te nemen en organisaties begeleiding te bieden die rechtszekerheid en vertrouwen in de snelle introductie van deze veelbelovende transformatieve technologie aanmoedigt!

Juridische Cursussen van AIRecht

Onze cursussen ‘AI en Recht – Juridische aspecten van AI, Machine Learning en Data’ bieden een compleet overzicht van de juridische facetten van kunstmatige intelligentie, big (structured/labelled en unstructured, raw) data en de verschillende typen machine learning (supervised, unsupervised, deep reinforcement, transfer, federated). De invalshoek is breed: van beschermen idee tot en met marktintroductie van het product. Cursusdoel is het wegnemen van juridische obstakels voor innovatie. Onderwerpen die hierbij aan de orde komen zijn privacywetgeving, het maximaliseren van uw IP-portfolio (intellectueel eigendom), normering, standaardisering (interoperabiliteit) en certificering (CE mark, keurmerken, conformiteit), het stimuleren van internationaal zakendoen, en het realiseren van (training)data delen op basis van EU regelgeving, licenties, toestemmingen en rechtsgeldige contracten. Maatwerk is mogelijk.

De workshops en masterclasses zijn cross-disciplinair en verbinden de ontwikkeling en toepassing van technologie met geldend nationaal en EU recht.

Meer lezen
Een Juridisch-Ethisch Kader voor Quantum Technologie

Een bewerkte versie van deze bijdrage is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/we-nederland-voorbereiden-kwantumtoekomst/

Nederland moet zich voorbereiden op de toepassing van kwantumtechnologie, zegt jurist en Stanford Law School Fellow Mauritz Kop. Op het gebied van regulering, intellectueel eigendom en ethiek is er nog veel werk aan de winkel.

De Quantum Age roept veel juridische vragen op

Het gedrag van de natuur op de kleinste schaal kan vreemd en contra-intuïtief zijn. Hoe kunnen beleidsmakers de toepassingsgebieden van kwantumtechnologie, zoals quantum computing, quantum sensing en het quantum internet op een maatschappelijk verantwoorde manier reguleren? Dienen ethische kwesties een rol te spelen in regulering? De Quantum Age roept veel juridische vragen op.

Hoe kunnen we kwantumtechnologie reguleren?

Regulering van transformatieve technologie is een dynamisch, cyclisch proces dat de levensduur van de technologie en de toepassing volgt. Het vraagt om een flexibel wetgevend systeem dat zich snel kan aanpassen aan veranderende omstandigheden en maatschappelijke behoeften.

De eerste regelgevende stap om te komen tot een bruikbaar juridisch-ethisch kader is het koppelen van de Trustworthy AI-principes aan kwantumtechnologie. Die vullen we vervolgens aan met horizontale, overkoepelende regels die recht doen aan de unieke natuurkundige eigenschappen van quantum. Aan deze horizontale kernregels voegt de wetgever tenslotte verticale, industrie- of sectorspecifieke voorschriften toe. Die verticale voorschriften en gedragscodes zijn risk-based en houden rekening met de uiteenlopende behoeftes van economische sectoren waar het duurzame innovatiestimuli betreft. Zo ontstaat een gedifferentieerde, sectorspecifieke benadering aangaande incentives en risks.

Bewustwording van ethische, juridische en sociale aspecten

Een belangrijk onderdeel van het synchroniseren van onze normen, waarden, standaarden en principes met kwantumtechnologie is het creëren van bewustwording van de ethische, juridische en sociale aspecten ervan. De architectuur van systemen die zijn uitgerust met kwantumtechnologie moet waarden vertegenwoordigen die wij als samenleving belangrijk vinden.

Vooruitlopend op spectaculaire doorbraken in de toepassing van kwantumtechnologie is de tijd nu rijp voor regeringen, onderzoeksinstellingen en de markt om regulatoire en intellectuele eigendomsstrategieën voor te bereiden die passen bij de power van de technologie.

Nederland moet zich voorbereiden op een kwantumtoekomst, want die komt eraan.

Meer lezen
Dit zijn de waarborgen bij de versnelde marktintroductie van vaccins

Deze column is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/waarborgen-versnelde-marktintroductie-vaccins/

De eerste COVID-19 vaccins zijn in zicht

Veel mensen maken zich zorgen over de versnelde introductie van coronavaccins. "Begrijpelijke vragen, begrijpelijke zorgen. Gelukkig is de werkelijkheid een stuk genuanceerder", zegt jurist Suzan Slijpen. In dit artikel gaat zij in op de waarborgen bij de versnelde marktintroductie van vaccins.

De eerste COVID-19 vaccins zijn in zicht. Met effectiviteitsmarges van waarschijnlijk 55% tot 95% gloort er eindelijk licht aan de horizon. Het RIVM bereidt de vaccinatiestrategie alvast voor, zodat er snel geschakeld kan worden als het moment daar is.

Het ontwikkelen van geneesmiddelen duurt normaal enkele jaren

Het ontwikkelen van geneesmiddelen duurt normaal enkele jaren. Dat er nu sprake is van enkele maanden lijkt absurd kort. Hoe zorgt men ervoor dat deze middelen veilig zijn? Dat mensen - aan beide kanten van de Atlantische Oceaan - zich hier zorgen over maken is geheel terecht. Hoe voorkom je dat burgers schade oplopen doordat de vaccins en medicijnen toch niet voor iedereen blijken te werken, omdat de toelatingsprocedures te veel zijn versoepeld?

Hoe een vaccin op de markt wordt gebracht

De Nederlandse regering heeft in nauwe samenwerking met Duitsland, Frankrijk en Italië een Joint Negotiation Team gevormd dat onder leiding van de Europese Commissie onderhandelt met vaccinontwikkelaars. Doel: in een vroeg stadium met producenten afspraken maken over de beschikbaarheid van vaccins voor de Europese landen. Als deze producenten erin slagen om een succesvol vaccin te ontwikkelen waarvoor de zogenaamde Market Authorization (MA) wordt verleend door EMA danwel CBG, zou dat tot een beschikbaarheid van zo’n 50 miljoen vaccins (enkel en alleen al voor Nederland) kunnen leiden.

Wie mogen deze vaccins produceren?

Wie mogen deze vaccins produceren? De Geneesmiddelenwet is er heel duidelijk over. Alleen ‘vergunninghouders’ mogen geneesmiddelen, waaronder vaccins, produceren. Dit zijn marktpartijen die een uitvoerige aanvraagprocedure hebben doorlopen, aantoonbaar beschikken over een gedegen farmaceutisch kwaliteitsmanagement systeem en die - na toetsing door de Inspectie voor de Gezondheidszorg (IGJ) - een zogenaamde F-vergunning (fabrikantenvergunning) hebben verkregen van Farmatec. Farmatec is onderdeel van het CIBG, een uitvoeringsorgaan van het ministerie van Volksgezondheid, Welzijn en Sport (VWS). De F-vergunning is verplicht voor partijen die geneesmiddelen bereiden, doen bereiden of invoeren.

Meer lezen
De posthumanistische revolutie van AI

Hoe voelden de eerste passagiers van een auto zich? Wat ging er door de mensen heen toen er thuis opeens elektrisch licht brandde? Misschien kun je je het moment nog herinneren dat je voor het eerst een e-mail stuurde. Dat zijn historische momenten geweest in onze technologische geschiedenis en dus in de vorming van onze maatschappij. Revolutionaire momenten zelfs; deze uitvindingen hebben de wereld en onze manier van leven ingrijpend veranderd. Hoe opwindend is het om te bedenken dat we nu opnieuw zo’n punt naderen met de doorbraak van artificiële intelligentie (AI).

AI: van belofte naar praktische toepassing

In samenspel met andere technologische ontwikkelingen als 5G, Big Data en het Internet of Things (IoT), is AI bezig met de verpopping van belofte naar praktische toepassingen. Dat betekent niet alleen dat we getuigen zijn van wat later geschiedenis wordt, maar ook dat de keuzes die we nu maken invloed hebben op het verloop ervan. First we shape our tools, then our tools shape us.

Ethisch en juridisch raamwerk

Eén van de grootste uitdagingen van exponentiële innovatie is ervoor zorgen dat we ethisch-juridische principes adequaat kunnen blijven beschermen. AI transformeert de wereld waarin we leven en stelt daarmee de huidige invulling van normen, waarden en rechten ter discussie. Autonomie en vrijheid, privacy en menselijke waardigheid, verantwoordelijkheid en aansprakelijkheid – het zijn centrale uitgangspunten van ons ethisch en juridisch raamwerk, die in het licht van AI vragen om hernieuwde afkadering. Maar AI stelt ook de effectiviteit van bestaande wet- en regelgeving op de proef.

Techniekfilosofie

Eline de Jong neemt ons mee in een korte geschiedenis van de techniekfilosofie, tegen de achtergrond van het ethisch-juridisch raamwerk van een posthumanistische wereld waarin we leven als inforgs binnen de infosfeer.

Meer lezen
Computer generated works: wie of wat is eigenaar?

Deze column is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/computer-generated-works-eigenaar/

Nieuwe technologieën roepen nieuwe juridische vragen op. Zo ook computers die creatieve werken maken. Wie of wat is de eigenaar van zo’n werk? Mauritz Kop geeft uitleg.

Machines uitgerust met artificiële intelligentie (AI) begeven zich op het terrein van de schone kunsten. Computers schilderen, schrijven en componeren er ijverig op los. Zo genereerde The Next Rembrandt een 3D-geprint meesterwerk, schilderde The Art and Artificial Intelligence Lab een levensechte Mona Lisa, schreef Kurzweils Cybernetic Poet klassieke sonnetten en produceerde Amper Music een complete muziek-cd. Alles in luttele seconden.

Auteursrechten vestigen is problematisch

Het is voorstelbaar dat er auteursrechten rusten op de voortbrengselen van AI-systemen zelf, zoals kunst, muziek, literatuur, uitvindingen, industriële toepassingen, algoritmes, code en andersoortige scheppingen. Men kan zich als wetgever de vraag stellen of er voor computer generated works sui generis categorieën rechten (met een korte looptijd en zonder persoonlijkheidsrechten) in het leven moeten worden geroepen.

Kunnen IE-rechten überhaupt AI-scheppingen beschermen?

De wet in haar huidige vorm erkent geen niet-menselijke auteursrechten. Auteurschap is fundamenteel verbonden met menselijkheid; met scheppingen van de menselijke geest. Dat vloeit bijvoorbeeld voort uit het bekende Infopaq-arrest van het EU Hof van Justitie uit 2009, al is dit arrest niet geschreven met machine learning en kunstmatige intelligentie in het achterhoofd. Is het dogmatisch en doctrinair correct om aan te nemen dat er geen copyright kan zijn op pure AI creations? AI is per slot van rekening niet menselijk en er is bovendien geen menselijke originaliteit en creativiteit aanwezig. Het korte antwoord luidt: ja.

Algoritmisch auteurschap: goed idee of niet?

In tegenstelling tot de benadering van de EU en de VS, heeft het Verenigd Koninkrijk een computer generated works-regime geïmplementeerd, wat betekent dat de programmeur van de AI het auteursrecht krijgt op de output van de machine. Met andere woorden: het VK, en recentelijk ook de Chinese rechter, breiden het menselijke auteurschap uit naar algoritmisch auteurschap.

AI-machine kan geen copyright bezitten

Auteursrechten kunnen alleen eigendom zijn van rechtssubjecten, dus personen of bedrijven. Een AI-machine kan zelf geen copyright bezitten op AI made creations omdat een AI-systeem geen rechtssubjectiviteit en ook geen rechtspersoonlijkheid bezit. AI-systemen kwalificeren als rechtsobject, niet als rechtssubject.

‘Publiek eigendom uit de machine’ en menselijke interventie

Menselijk auteurschap blijft het normatieve orgelpunt van het intellectuele eigendomsrecht. Delen van het meerlagige, uit het Romeinse recht afkomstige eigendomsparadigma kunnen relevant zijn voor AI. Voortbouwend op dit raamwerk is er een nieuw publiek domein model denkbaar voor AI creations and inventions die de autonomiedrempel overschrijden: res publicae ex machina (publiek eigendom uit de machine).

Meer lezen
Data delen als voorwaarde voor een succesvol AI-ecosysteem

Trainingsdatasets voor kunstmatige intelligentie: enkele juridische aspecten

Data delen (data sharing) of liever het vermogen om hoge kwaliteit trainingsdatasets te kunnen analyseren om een AI model -zoals een generative adversarial network- te trainen, is een voorwaarde voor een succesvol AI-ecosysteem in Nederland.

In ons turbulente technologische tijdperk nemen fysieke aanknopingspunten als papier of tastbare producten binnen de context van data -of informatie- in belang af. Informatie is niet langer aan een continent, staat of plaats gebonden. Informatietechnologie zoals kunstmatige intelligentie ontwikkelt zich in een dermate hoog tempo, dat de juridische problemen die daaruit voortvloeien in belangrijke mate onvoorspelbaar zijn. Hierdoor ontstaan -kort gezegd- problemen voor tech startups en scaleups.

In dit artikel een serie -mede in onderlinge samenhang te beschouwen aanbevelingen, suggesties en inventieve oplossingen om anno 2020 tot waardevolle nationale en Europese dataketens te komen.

Data donor codicil

Introductie van een Europees (of nationaal) data donor codicil waarmee een patiënt of consument vrijwillig data kan doneren aan de overheid en/of het bedrijfsleven, AVG-proof. Hier kunnen waardeketens worden gecreëerd door de sensor data van medische Internet of Things (IoT) apparaten en smart wearables van overheidswege te accumuleren. Anoniem of met biomarkers.

Data interoperabel en gestandaardiseerd

Unificatie van data uitwisselingsmodellen zodat deze interoperabel en gestandaardiseerd worden in het IoT. Een voorbeeld is een Europees EPD (Elektronisch Patiënten Dossier), i.e een Electronic Healthcare Record (EMR). AI certificering en standaardisatie (zoals ISO, ANSI, IEEE / IEC) dient bij voorkeur niet te worden uitgevoerd door private partijen met commerciële doelstellingen, maar door onafhankelijke openbare instanties (vergelijk het Amerikaanse FDA).

Machine generated (non) personal data

Een andere categorisering die we kunnen maken is enerzijds publieke (in handen van de overheid) machine generated (non) personal data, en private machine generated (non) personal data. Met machine generated data bedoelen we met name informatie en gegevens die continue door edge devices worden gegenereerd in het Internet of Things (IoT). Deze edge devices staan via edge (of fod) nodes (zenders) in verbinding met datacenters die samen met edge servers de cloud vormen. Deze architectuur noemen we ook wel edge computing.

Juridische dimensie

Data, of informatie heeft een groot aantal juridische dimensies. Aan data delen kleven potentieel intellectueel eigendomsrechtelijke (verbodsrecht en vergoedingsrecht), ethische, grondrechtelijke (privacy, vrijheid van meningsuiting), contractenrechtelijke en internationaal handelsrechtelijke aspecten. Juridisch eigendom op data bestaat anno 2020 niet omdat het -vanuit goederenrechtelijk oogpunt- niet als zaak wordt gekwalificeerd. Data heeft wel vermogensrechtelijke aspecten.

Meer lezen
Cursus AI, Data, Privacy en Innovatie in de Zorg

Suzan Slijpen, Sander Ruiter en Mauritz Kop over AI in de Zorg

Op 31 oktober 2019 gaven Suzan Slijpen, Sander Ruiter en Mauritz Kop een cursus AI, Data, Privacy en Innovatie in de Zorg in het Maasstad Ziekenhuis Rotterdam. Wij waren daar te gast op uitnodiging van Quint Wellington Redwood, een leading consultancy firm die organisaties ondersteunt bij het ontwerpen en operationaliseren van hun digitale strategie waarbij mensen, processen en technologie centraal staan.

Gebruik van patiëntgegevens, medische hulpmiddelen, datadelen, privacy & AI in het ziekenhuis

Doel van cursus was om helderheid te scheppen in de wettelijke regels over het gebruik van patiëntgegevens, datadelen, eigendom van trainingsdatasets, medical devices, privacy en artificiële intelligentie in het ziekenhuis. AIRecht werd ingeschakeld om expertise te geven over dit complexe en uitdagende onderwerp. Om barrières weg te nemen voor innovatie. Onder de aanwezigen waren het Maasstad Ziekenhuis Rotterdam management team, de CISO (Chief Information Security Officer), enkele artsen, radiologen en verpleegkundigen. Ook waren er data scientists uitgenodigd van Parnassia Groep, specialisten in geestelijke gezondheid.

Keynote Digitale Zorg - Medical Devices, Patiëntdata, MDR & AVG

Nieuwe Europese regelgeving (MDR) voor Medical Devices waaronder zorgrobots, medische producten, hulpmiddelen en medische software vanuit een AI-helicopterview, die in 2020 in Nederland van kracht wordt. Verhouding tussen de AVG en de MDR. Gebruik en uitwisseling van patiëntdata, informatiebeveiliging en digitale zorg: wat mag er wel en niet op basis van de Europese Privacywetgeving (AVG/GDPR)?

Meer lezen