Innovation, Quantum-AI Technology & Law

Blog over Kunstmatige Intelligentie, Quantum, Deep Learning, Blockchain en Big Data Law

Blog over juridische, sociale, ethische en policy aspecten van Kunstmatige Intelligentie, Quantum Computing, Sensing & Communication, Augmented Reality en Robotica, Big Data Wetgeving en Machine Learning Regelgeving. Kennisartikelen inzake de EU AI Act, de Data Governance Act, cloud computing, algoritmes, privacy, virtual reality, blockchain, robotlaw, smart contracts, informatierecht, ICT contracten, online platforms, apps en tools. Europese regels, auteursrecht, chipsrecht, databankrechten en juridische diensten AI recht.

Berichten met de tag Harvard
Mauritz Kop Expert at Eric Schmidt backed von Neumann Commission

Stanford, CA – Mauritz Kop, the Frm. Founding Executive Director of the Stanford Center for Responsible Quantum Technology (RQT), has accepted an invitation to serve as an expert on The von Neumann Commission. The announcement, made on February 1, 2025, positions Kop to contribute to a critical global dialogue at the intersection of quantum computing, artificial intelligence, and grand strategy. The Oxford-based, independent research commission is backed by the Eric and Wendy Schmidt Fund for Strategic Innovation and other key institutions. The von Neumann Commission’s inquiry will be multifaceted, addressing the core technical prospects for quantum acceleration, its strategic implications for the global balance of power, the risks to strategic stability, and the necessary governance frameworks to ensure responsible development. The Commission's investigation is set against the backdrop of a new technological paradigm—the convergence of quantum and AI—and is informed by the historical legacy of its namesake, the strategic vision of its sponsors, and the vital perspectives of its experts.

The Quantum-AI Convergence: A New Technological Paradigm

At the heart of The von Neumann Commission's inquiry is the powerful synergy between quantum computing and artificial intelligence. This convergence is not merely additive; it is a cross-pollination that promises to redefine the boundaries of both fields. To understand this, one must first grasp the fundamental difference between classical and quantum computation.

Classical computers, from supercomputers to smartphones, process information using bits, which can exist in one of two definite states: 0 or 1. Quantum computing, by contrast, operates on the principles of quantum mechanics. It uses qubits, which can exist in a state of superposition—representing both 0 and 1 simultaneously. This property, combined with entanglement, where the state of one qubit is instantly correlated with another regardless of distance, allows quantum computers to explore a vast computational space and perform parallel calculations on an exponential scale.

Professor Kop’s Expertise as a von Neumann Commissioner

As a Commission expert, Professor Kop will contribute a multidisciplinary perspective grounded in his extensive research on the law, ethics, societal impact, and policy of quantum and AI. Professor Kop has advised numerous governments and international organizations on their quantum technology strategies, including the United States (notably the Department of State on its quantum foreign policy, U.S. Senators on quantum governance, and as a Guest Professor at the US Air Force Academy), Canada, the United Kingdom, and The Netherlands, as well as multilateral institutions such as the World Economic Forum (WEF), UNESCO, CERN, and the OECD. He has also provided expert guidance to the European Union on landmark AI legislation, including the EU AI Act and the Data Act. His specific contributions to The von Neumann Commission will draw from his expertise in:

● Geostrategy, Democracy, and Authoritarianism: Analyzing the strategic struggle between democratic and authoritarian models of technology governance. This includes his work in Foreign Policy and the Stanford-Vienna Transatlantic Technology Forum on forming a strategic tech alliance among democratic nations and his lectures at institutions like the Hoover Institution on the impact of quantum technologies on the global balance of power.

● Comparative Regulatory and Innovation Models: Analyzing the legal and policy differences between the US, EU, and China. His scholarship, including his "Ten principles for responsible quantum technology" in IOP Quantum Science and Technology, his “Establishing a Legal-Ethical Framework for Quantum Technology” at Yale University, and foundational articles at Harvard Berkman Klein and Nature, dissects these competing models and provides a crucial framework for navigating global strategic competition.

● China’s Quantum and AI Strategy: Providing in-depth analysis of China's legal, ethical, and policy landscape for quantum technologies. This includes evaluating the country's national strategy, its approach to dual use civil-military fusion, its influence on U.S. and E.U. national and economic security through China’s Digital Silk Road Initiative, and its comparative strengths and weaknesses in the global technology race, as analyzed in his “Towards an Atomic Agency for Quantum-AI” scholarship at the European Commission’s Futurium.

● National and Economic Security: Examining the role of export controls, rare earth and critical mineral supply chain vulnerability as published at the Stanford Program on Geopolitics, Technology, and Governance at CISAC / FSI, intellectual property law as published at Berkeley and the Max Planck Institute, and cybersecurity in managing the geostrategic dimensions of quantum technology. His work in these areas, including his contributions to forums like Tel Aviv University's Cyber Week, provides critical insights into protecting strategic assets.

● Standards and Governance: Contributing to the development of robust standards, certification protocols, and performance benchmarks to ensure the safety, reliability, and ethical implementation of these powerful technologies, drawing from lessons from nuclear governance, and from his conferences and seminars at Stanford, Fordham Law, Arizona State, Copenhagen, the Center for Quantum Networks (CQN) and the Centre for International Governance Innovation (CIGI) in Waterloo.

By integrating these insights, Kop will aid the Commission in formulating a holistic understanding of the challenges pertaining to systemic rivalry and great power competition ahead.

Meer lezen
Law, Ethics and Policy of Quantum & AI in Healthcare and Life Sciences published at Harvard, Stanford and European Commission

A collaborative research initiative by scholars from Stanford, Harvard, and MIT, published by the Petrie-Flom Center at Harvard Law School, the Stanford Center for Responsible Quantum Technology, and the European Commission, delves into the complex regulatory and ethical landscape of integrating quantum technologies and artificial intelligence (AI) into the healthcare and life sciences sectors. This series of policy guides and analyses, authored by an interdisciplinary team including Mauritz Kop, Suzan Slijpen, Katie Liu, Jin-Hee Lee, Constanze Albrecht, and I. Glenn Cohen, offers a comprehensive examination of the transformative potential and inherent challenges of this technological convergence.

Regulating Quantum & AI in Healthcare and Medicine: A Brief Policy Guide

This body of research, examining the entangled legal, ethical, and policy dimensions of integrating quantum technologies and AI into healthcare, is articulated across a series of publications in leading academic and policy forums. These works collaboratively build a comprehensive framework for understanding and navigating the future of medicine. A related policy guide was also published on the European Commission's Futurium platform, further disseminating these findings to a key international policymaking audience. The specific publications include:

1. A Brief Quantum Medicine Policy Guidehttps://blog.petrieflom.law.harvard.edu/2024/12/06/a-brief-quantum-medicine-policy-guide/

2. How Quantum Technologies May Be Integrated Into Healthcare, What Regulators Should Considerhttps://law.stanford.edu/publications/how-quantum-technologies-may-be-integrated-into-healthcare-what-regulators-should-consider/

3. EU and US Regulatory Challenges Facing AI Health Care Innovator Firmshttps://blog.petrieflom.law.harvard.edu/2024/04/04/eu-and-us-regulatory-challenges-facing-ai-health-care-innovator-firms/

4. Regulating Quantum & AI in Healthcare: A Brief Policy Guidehttps://futurium.ec.europa.eu/en/european-ai-alliance/document/regulating-quantum-ai-healthcare-brief-policy-guide

by Mauritz Kop, Suzan Slijpen, Katie Liu, Jin-Hee Lee, Constanze Albrecht & I. Glenn Cohen

Forging the Future of Medicine: A Scholarly Perspective on the Law, Ethics, and Policy of Quantum and AI in Healthcare

The research posits that the fusion of AI with second-generation quantum technologies (2G QT)—which harness quantum-mechanical phenomena like superposition and entanglement—is poised to revolutionize precision medicine. This synergy of quantum computing, sensing and simulation with artificial intelligence promises hyper-personalized healthcare solutions, capable of tackling intricate medical problems that lie beyond the grasp of classical computing. The potential applications are vast, spanning from accelerated drug discovery and development workflows and enhanced diagnostic imaging to rapid genome sequencing and real-time health monitoring. For instance, quantum simulations could model molecular interactions to create more effective pharmaceuticals, while quantum dots may offer novel platforms for targeted cancer therapies and treatments for neurodegenerative conditions by overcoming the blood-brain barrier.

However, the authors caution that these groundbreaking advancements are accompanied by significant ethical, legal, socio-economic, and policy (ELSPI) implications. The emergence of Quantum Artificial Intelligence (QAI), Quantum Machine Learning (QML), and Quantum Large Language Models (QLLM) is expected to amplify these ELSPI concerns. The dual-use nature of these technologies, such as their potential application in gain-of-function research, necessitates a principled and human-centric governance approach.

Meer lezen
We hebben dringend een recht op dataprocessing nodig

Deze column is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/we-dringend-recht-dataprocessing-nodig/

5 juridische obstakels voor een succesvol AI-ecosysteem

Eerder schreef ik dat vraagstukken over het (intellectueel) eigendom van data, databescherming en privacy een belemmering vormen voor het (her)gebruiken en delen van hoge kwaliteit data tussen burgers, bedrijven, onderzoeksinstellingen en de overheid. Er bestaat in Europa nog geen goed functionerend juridisch-technisch systeem dat rechtszekerheid en een gunstig investeringsklimaat biedt en bovenal is gemaakt met de datagedreven economie in het achterhoofd. We hebben hier te maken met een complex probleem dat in de weg staat aan exponentiële innovatie.

Auteursrechten, Privacy en Rechtsonzekerheid over eigendom van data

De eerste juridische horde bij datadelen is auteursrechtelijk van aard. Ten tweede kunnen er (sui generis) databankenrechten van derden rusten op (delen van) de training-, testing- of validatiedataset. Ten derde zullen bedrijven na een strategische afweging kiezen voor geheimhouding, en niet voor het patenteren van hun technische vondst. Het vierde probleempunt is rechtsonzekerheid over juridisch eigendom van data. Een vijfde belemmering is de vrees voor de Algemene verordening gegevensbescherming (AVG). Onwetendheid en rechtsonzekerheid resulteert hier in risicomijdend gedrag. Het leidt niet tot spectaculaire Europese unicorns die de concurrentie aankunnen met Amerika en China.

Wat is machine learning eigenlijk?

Vertrouwdheid met technische aspecten van data in machine learning geeft juristen, datawetenschappers en beleidsmakers de mogelijkheid om effectiever te communiceren over toekomstige regelgeving voor AI en het delen van data.

Machine learning en datadelen zijn van elementair belang voor de geboorte en de evolutie van AI. En daarmee voor het behoud van onze democratische waarden, welvaart en welzijn. Een machine learning-systeem wordt niet geprogrammeerd, maar getraind. Tijdens het leerproces ontvangt een computer uitgerust met kustmatige intelligentie zowel invoergegevens (trainingdata), als de verwachte, bij deze inputdata behorende antwoorden. Het AI-systeem moet zelf de bijpassende regels en wetmatigheden formuleren met een kunstmatig brein. Algoritmische, voorspellende modellen kunnen vervolgens worden toegepast op nieuwe datasets om nieuwe, correcte antwoorden te produceren.

Dringend nodig: het recht op dataprocessing

De Europese Commissie heeft de ambitie om datasoevereiniteit terug te winnen. Europa moet een internationale datahub worden. Dit vereist een modern juridisch raamwerk in de vorm van de Europese Data Act, die in de loop van 2021 wordt verwacht. Het is naar mijn idee cruciaal dat de Data Act een expliciet recht op dataprocessing bevat.

Technologie is niet neutraal

Tegelijkertijd kan de architectuur van digitale systemen de sociaal-maatschappelijke impact van digitale transformatie reguleren. Een digitaal inclusieve samenleving moet technologie actief vormgeven. Technologie an sich is namelijk nooit neutraal. Maatschappelijke waarden zoals transparantie, vertrouwen, rechtvaardigheid, controle en cybersecurity moeten worden ingebouwd in het design van AI-systemen en de benodigde trainingdatasets, vanaf de eerste regel code.

Meer lezen
Data delen als voorwaarde voor een succesvol AI-ecosysteem

Trainingsdatasets voor kunstmatige intelligentie: enkele juridische aspecten

Data delen (data sharing) of liever het vermogen om hoge kwaliteit trainingsdatasets te kunnen analyseren om een AI model -zoals een generative adversarial network- te trainen, is een voorwaarde voor een succesvol AI-ecosysteem in Nederland.

In ons turbulente technologische tijdperk nemen fysieke aanknopingspunten als papier of tastbare producten binnen de context van data -of informatie- in belang af. Informatie is niet langer aan een continent, staat of plaats gebonden. Informatietechnologie zoals kunstmatige intelligentie ontwikkelt zich in een dermate hoog tempo, dat de juridische problemen die daaruit voortvloeien in belangrijke mate onvoorspelbaar zijn. Hierdoor ontstaan -kort gezegd- problemen voor tech startups en scaleups.

In dit artikel een serie -mede in onderlinge samenhang te beschouwen aanbevelingen, suggesties en inventieve oplossingen om anno 2020 tot waardevolle nationale en Europese dataketens te komen.

Data donor codicil

Introductie van een Europees (of nationaal) data donor codicil waarmee een patiënt of consument vrijwillig data kan doneren aan de overheid en/of het bedrijfsleven, AVG-proof. Hier kunnen waardeketens worden gecreëerd door de sensor data van medische Internet of Things (IoT) apparaten en smart wearables van overheidswege te accumuleren. Anoniem of met biomarkers.

Data interoperabel en gestandaardiseerd

Unificatie van data uitwisselingsmodellen zodat deze interoperabel en gestandaardiseerd worden in het IoT. Een voorbeeld is een Europees EPD (Elektronisch Patiënten Dossier), i.e een Electronic Healthcare Record (EMR). AI certificering en standaardisatie (zoals ISO, ANSI, IEEE / IEC) dient bij voorkeur niet te worden uitgevoerd door private partijen met commerciële doelstellingen, maar door onafhankelijke openbare instanties (vergelijk het Amerikaanse FDA).

Machine generated (non) personal data

Een andere categorisering die we kunnen maken is enerzijds publieke (in handen van de overheid) machine generated (non) personal data, en private machine generated (non) personal data. Met machine generated data bedoelen we met name informatie en gegevens die continue door edge devices worden gegenereerd in het Internet of Things (IoT). Deze edge devices staan via edge (of fod) nodes (zenders) in verbinding met datacenters die samen met edge servers de cloud vormen. Deze architectuur noemen we ook wel edge computing.

Juridische dimensie

Data, of informatie heeft een groot aantal juridische dimensies. Aan data delen kleven potentieel intellectueel eigendomsrechtelijke (verbodsrecht en vergoedingsrecht), ethische, grondrechtelijke (privacy, vrijheid van meningsuiting), contractenrechtelijke en internationaal handelsrechtelijke aspecten. Juridisch eigendom op data bestaat anno 2020 niet omdat het -vanuit goederenrechtelijk oogpunt- niet als zaak wordt gekwalificeerd. Data heeft wel vermogensrechtelijke aspecten.

Meer lezen