Innovation, Technology & Law

Blog over Kunstmatige Intelligentie, Quantum, Deep Learning, Blockchain en Big Data Law

Blog over juridische, sociale, ethische en policy aspecten van Kunstmatige Intelligentie, Quantum Computing, Sensing & Communication, Augmented Reality en Robotica, Big Data Wetgeving en Machine Learning Regelgeving. Kennisartikelen inzake de EU AI Act, de Data Governance Act, cloud computing, algoritmes, privacy, virtual reality, blockchain, robotlaw, smart contracts, informatierecht, ICT contracten, online platforms, apps en tools. Europese regels, auteursrecht, chipsrecht, databankrechten en juridische diensten AI recht.

Berichten met de tag legal sandboxes
EU Artificial Intelligence Act: The European Approach to AI

Stanford - Vienna Transatlantic Technology Law Forum, Transatlantic Antitrust and IPR Developments, Stanford University, Issue No. 2/2021

New Stanford tech policy research: “EU Artificial Intelligence Act: The European Approach to AI”.

Download the article here: Kop_EU AI Act: The European Approach to AI

EU regulatory framework for AI

On 21 April 2021, the European Commission presented the Artificial Intelligence Act. This Stanford Law School contribution lists the main points of the proposed regulatory framework for AI.

The Act seeks to codify the high standards of the EU trustworthy AI paradigm, which requires AI to be legally, ethically and technically robust, while respecting democratic values, human rights and the rule of law. The draft regulation sets out core horizontal rules for the development, commodification and use of AI-driven products, services and systems within the territory of the EU, that apply to all industries.

Legal sandboxes fostering innovation

The EC aims to prevent the rules from stifling innovation and hindering the creation of a flourishing AI ecosystem in Europe. This is ensured by introducing various flexibilities, including the application of legal sandboxes that afford breathing room to AI developers.

Sophisticated ‘product safety regime’

The EU AI Act introduces a sophisticated ‘product safety framework’ constructed around a set of 4 risk categories. It imposes requirements for market entrance and certification of High-Risk AI Systems through a mandatory CE-marking procedure. To ensure equitable outcomes, this pre-market conformity regime also applies to machine learning training, testing and validation datasets.

Pyramid of criticality

The AI Act draft combines a risk-based approach based on the pyramid of criticality, with a modern, layered enforcement mechanism. This means, among other things, that a lighter legal regime applies to AI applications with a negligible risk, and that applications with an unacceptable risk are banned. Stricter regulations apply as risk increases.

Enforcement at both Union and Member State level

The draft regulation provides for the installation of a new enforcement body at Union level: the European Artificial Intelligence Board (EAIB). At Member State level, the EAIB will be flanked by national supervisors, similar to the GDPR’s oversight mechanism. Fines for violation of the rules can be up to 6% of global turnover, or 30 million euros for private entities.

CE-marking for High-Risk AI Systems

In line with my recommendations, Article 49 of the Act requires high-risk AI and data-driven systems, products and services to comply with EU benchmarks, including safety and compliance assessments. This is crucial because it requires AI infused products and services to meet the high technical, legal and ethical standards that reflect the core values of trustworthy AI. Only then will they receive a CE marking that allows them to enter the European markets. This pre-market conformity mechanism works in the same manner as the existing CE marking: as safety certification for products traded in the European Economic Area (EEA).

Trustworthy AI by Design: ex ante and life-cycle auditing

Responsible, trustworthy AI by design requires awareness from all parties involved, from the first line of code. Indispensable tools to facilitate this awareness process are AI impact and conformity assessments, best practices, technology roadmaps and codes of conduct. These tools are executed by inclusive, multidisciplinary teams, that use them to monitor, validate and benchmark AI systems. It will all come down to ex ante and life-cycle auditing.

The new European rules will forever change the way AI is formed. Pursuing trustworthy AI by design seems like a sensible strategy, wherever you are in the world.

Meer lezen
Workshop Juridische Aspecten AI & Data bij TNO - NL AIC Startups & Scaleups TekDelta Event

Op 24 september 2020 gaf Stanford Law School Fellow Mauritz Kop een masterclass over de juridische dimensie van kunstmatige intelligentie en informatie aan de getalenteerde deelnemers van de Werkgroep Startups & Scaleups van de Nederlandse AI Coalitie (NL AIC), in het kantoor van TNO Research in Den Haag. De workshop maakte onderdeel uit van het TekDelta | NL AIC startup accelerator event, met als centraal thema het versnellen en faciliteren van innovatie door het verbinden van startende ondernemingen met bestaande leading organisaties met slagkracht: het samen bouwen aan een succesvol high tech ecosysteem in Nederland.

Masterclass 'Juridische Aspecten van AI & Data’

De 2,5 uur durende masterclass 'Juridische Aspecten van AI & Data' bij TNO verschafte de cursisten duidelijkheid over de regels voor data delen, privacy en gegevensbescherming, alsmede juridisch en economisch eigendom van informatie. We behandelden onderwerpen variërend van de bescherming van intellectueel eigendom op het AI-systeem, de software, hardware en apps, clearance van data tot het anticiperen op de aanstaande AI & Data Governance wetten van de Europese Commissie.

Multidisciplinair Panel voor Verantwoord Data Delen

Dezelfde middag vond er vanuit het TNO gebouw een online seminar plaats speciaal voor startups, onder leiding van Anita Lieverdink, Senior Orchestrator of Innovation at TNO, Directeur van TekDelta en Program Manager van de Werkgroep Startps & Scaleups van de Nederlandse AI Coalitie.

AIRecht managing partner Mr. Kop nam als juridisch expert deel in het panel dat ging over verantwoord data delen. Het was goed om deel te nemen aan dit multidisciplinaire panel en samen met onze collega's oplossingen te verkennen voor het versneld en verantwoord delen van gegevens. Het is cruciaal en urgent om belemmeringen voor de inzet van benevolente AI weg te nemen en organisaties begeleiding te bieden die rechtszekerheid en vertrouwen in de snelle introductie van deze veelbelovende transformatieve technologie aanmoedigt!

Juridische Cursussen van AIRecht

Onze cursussen ‘AI en Recht – Juridische aspecten van AI, Machine Learning en Data’ bieden een compleet overzicht van de juridische facetten van kunstmatige intelligentie, big (structured/labelled en unstructured, raw) data en de verschillende typen machine learning (supervised, unsupervised, deep reinforcement, transfer, federated). De invalshoek is breed: van beschermen idee tot en met marktintroductie van het product. Cursusdoel is het wegnemen van juridische obstakels voor innovatie. Onderwerpen die hierbij aan de orde komen zijn privacywetgeving, het maximaliseren van uw IP-portfolio (intellectueel eigendom), normering, standaardisering (interoperabiliteit) en certificering (CE mark, keurmerken, conformiteit), het stimuleren van internationaal zakendoen, en het realiseren van (training)data delen op basis van EU regelgeving, licenties, toestemmingen en rechtsgeldige contracten. Maatwerk is mogelijk.

De workshops en masterclasses zijn cross-disciplinair en verbinden de ontwikkeling en toepassing van technologie met geldend nationaal en EU recht.

Meer lezen
Transparantie en uitlegbaarheid van AI algoritmes

Tijdens het Platform ECP event ‘Transparantie en uitlegbaarheid van AI algoritmes’ gaf AIRecht Managing Partner en lid van de Werkgroep Kunstmatige Intelligentie Mauritz Kop op 27 juni 2019 in Den Haag een korte presentatie over de eerste Europese AI Alliance Conferentie te Brussel, en de aldaar door HLEG Chair Pekka Ala-Pietilä aan EU Commissaris Mariya Gabriel gepresenteerde Policy and Investment Recommendations for Trustworthy AI.

Policy and Investment Recommendations for Trustworthy AI

De Policy and Investment Recommendations for Trustworthy AI van de onafhankelijke High-Level Expert Group on Artificial Intelligence (AI HLEG) bevatten 33 punten, waaronder 11 key takeways die Europese Artificiële Intelligentie naar duurzaamheid, groei en competitiveness moeten leiden. Best practices en Codes of Conduct zoals het ECP AI Impact Assessment spelen in daarin een prominente rol.

Succesvolle eerste Europese AI Alliance Assembly in Brussel

De HLEG kan terugkijken op een succesvolle eerste editie van de Europese AI Alliantie Conferentie in Brussel, die gehouden werd op 26 juni 2019. Tijdens de Assembly - die ook online werd gestreamd - werden de nieuwste prestaties in het AI-beleid en de toekomstperspectieven van de Europese strategie voor kunstmatige intelligentie besproken (i.e. sociale, mensgerichte AI die fundamentele rechten en vrijheden respecteert), inclusief de impact ervan op onze economie en samenleving.

Meer lezen