RdW Wirtschaftsrecht

Regulating Robots - Entwurf des Artificial Intelligence Act

RA Dr. Jeannette Gorzala, BSc

Artificial Intelligence (AI) entwickelt sich rasant. Nicht zuletzt die COVID-19-Pandemie hat aufgezeigt, wie wirkungsvoll AI-Systeme im Gesundheitssystem eingesetzt werden können. Der verantwortungsvolle Einsatz von AI kann wirtschaftliche und wettbewerbsrechtliche Vorteile für den Standort Europa bedeuten. Gleichzeitig sind mit dem Einsatz von technisch mächtigen AI-Systemen auch Gefahren verbunden. Die Angst vor Massenüberwachung durch automatische Gesichtserkennungssysteme oder vor einer harten Bestrafung von automatisch überwachtem pönalisierten Sozialverhalten ist groß (und angesichts des künftigen technischen Potenzials nicht ganz unberechtigt). Es gilt daher eine Balance zwischen Innovation und dem Schutz von elementaren Grund- und Freiheitsrechten beim Einsatz derartiger Systeme zu finden. Mit dem Erstentwurf des Artificial Intelligence Act der EU-Kommission1 gibt es nun erste Ansatzpunkte, wie die EU dieser neuen Technologie begegnen wird.

1.Europäische AI-Strategie als Teil des digitalen Binnenmarkts

Die Schaffung eines rechtssicheren Umfelds für neue Technologien, insb AI, ist Teil der Strategie der EU-Kommission zur Realisierung des digitalen Binnenmarkts.2 EU-Kommission und EU-Parlament haben sich umfangreich mit AI auseinandergesetzt. Neben den Strategiepapieren3 und politischen Guidelines4 der EU-Kommission veröffentlichte auch das EU-Parlament umfassende Stellungnahmen zum Einfluss von AI-Systemen in den Bereichen Ethik,5 Haftung,6 Urheberrechte,7 Strafsachen8 und Ausbildung.9 Als Ergebnis dieser umfassenden Vorarbeit präsentierte die EU-Kommission nunmehr am 21. 4. 2021 einen Erstentwurf einer Verordnung über ein europäisches Konzept für künstliche Intelligenz (Artificial Intelligence Act) ("AIA").

Allgemeine Zielrichtung des AIA ist die Schaffung eines EU-weit einheitlichen und hohen Schutzniveaus für öffentliche Interessen, vor allem Gesundheit, Sicherheit und fundamentale Grund- und Freiheitsrechte von Individuen. Gleichzeitig soll im Sinne des Konzepts des digitalen Binnenmarkts der freie Waren- und Dienstleistungsverkehr für AI-Systeme zwischen Mitgliedstaaten ermöglicht werden.10 Die EU-Kommission unterstützt mit dem AIA das Bestreben der EU, international führende Standards für die Entwicklung sicherer, vertrauenswürdiger und ethischer AI-Anwendungen zu setzen.11 Unter Wahrung der europäischen Werte soll gleichzeitig Europas Position als Exzellenzzentrum für AI von der Entwicklung bis zur Marktreife und Vermarktung gestärkt werden. Der AIA verfolgt einen risikobasierten Ansatz in vier Stufen: (i) verbotene AI-Anwendungen wegen inakzeptabler Risiken, (ii) Hochrisikoanwendungen von AI, die strenger Compliance unterliegen, (iii) AI-Anwendungen, für die besondere Transparenzpflichten gelten, und (iv) zulässige AI-Anwendungen aufgrund minimalen oder geringen Risikos. Im Fokus des AIA stehen Regelungen für konkrete AI-Anwendungen zur Behandlung damit verbundener Risiken, wobei gleichzeitig Innovation nicht durch Überregulierung behindert werden soll.12

2.Legaldefinition für AI-Systeme und extensiver Anwendungsbereich

Der sachliche Anwendungsbereich des AIA ergibt sich über die erstmalige Legaldefinition von AI-Systemen (Art 3 Abs 1 Z 1 iVm Annex I AIA). Artificial intelligence system (kurz AI system) ist definiert als Software, die auf der Basis von einem oder mehreren bestimmten Ansätzen oder Techniken entwickelt wurde und für menschlich definierte Ziele Ergebnisse (Output) in Form von Inhalten, Vorhersagen, Empfehlungen oder Entscheidungen generiert, die das Umfeld, mit dem sie interagieren, beeinflussen. Die folgenden Techniken und Ansätze gelten als AI-Techniken iSd AIA (Annex I AIA):

(a)Ansätze des maschinellen Lernens (machine learning), inkl überwachten und unüberwachten Verstärkungslernens (reinforcement learning) unter der Nutzung eines breiten Spektrums an Methoden inkl deep learning.
(b)Logische und wissensbasierte Ansätze, inkl Wissensdarstellung, induktiven (logischen) Programmierens, Wissensbasen, Inferenzmaschinen und deduktiver Ansätze sowie Schlussfolgerungs- und Expertensysteme.
(c)Statistische Methoden, Bayes’sche Schätzungen13 sowie Methoden zur Suche und Optimierung.

Die Definition der AI-Systeme beruht auf der Zielsetzung, Rechtssicherheit zu schaffen, aber dennoch ausreichend Flexibilität für künftige technische Entwicklungen offenzuhalten. Daher orientierte sich die EU-Kommission bei der Definition an funktionalen Softwareelementen.14 Diese sehr weitläufige Definition von AI-Techniken führt in der Praxis jedoch zu Abgrenzungsschwierigkeiten. Eine Präzisierung der Definition würde für ein größeres Maß an Rechtssicherheit sorgen. Der Grad der Autonomie von AI-Systemen ist unterschiedlich ausgeprägt, weshalb dieses Kriterium nicht in die Legaldefinition aufgenommen wurde.

Der AIA ist anwendbar auf (i) Nutzer von AI-Systemen, (ii) Hersteller, die AI-Systeme in die EU importieren oder in der EU betreiben, unabhängig von ihrem Sitzstaat, sowie (iii) Nutzer und Hersteller von AI-Systemen in Drittstatten, wenn die Produkte (Output) des AI-Systems innerhalb der EU genutzt werden (Art 2 AIA). Ähnlich der Datenschutzgrundverordnung (DSGVO) beabsichtigt die EU-Kommission, hier ebenfalls ein Level Playing Field für effektiven Rechtsschutz zu schaffen, welcher nicht durch Forum Shopping unterwandert werden kann.15 Bei entsprechendem Inlandsbezug sind somit die Verpflichtungen des AIA von allen Akteuren entlang der Lieferkette, folglich vom Hersteller über den Importeur bis zum Händler, zu beachten.16 Hervorzuheben ist, dass auch Nutzer von AI-Systemen in die Pflicht genommen werden und AI-Systeme entsprechend den Anleitungen betreiben und überwachen müssen (Art 29 AIA) . Da Nutzer von den Vorteilen des AI-Einsatzes profitieren (Kostenreduktion, Steigerung von Effizienz etc), ist es nur sachgerecht, diese auch zu einem entsprechenden Systembetrieb zu verpflichten.

3.Regeln für AI-Systeme

3.1.Verbotene AI-Systeme

Verboten werden sollen AI-Systeme in bestimmten sensiblen Bereichen, da sie diametral fundamentalen Rechten und Werten der Europäischen Union entgegenstehen (prohibited artificial intelligence practices, Art 5 AIA). Diese AI-Systeme wurden von der EU-Kommission als klare Bedrohung für die Sicherheit, Lebensgrundlagen und Rechte von Menschen identifiziert. Verboten werden sollen daher folgende Systeme:

(a)Systeme zur unterbewussten Manipulation oder Ausnutzung von Alter oder psychischer bzw physischer Schwäche durch signifikante Wahrnehmungsverzerrung, wenn ein physischer oder psychischer Schaden von Personen verursacht wird oder eine Verursachung wahrscheinlich ist.
(b)Systeme für Social Scoring durch öffentliche Behörden. Darunter fallen Systeme zur Bewertung oder Klassifizierung der Vertrauenswürdigkeit von Personen über einen längeren Zeitraum, basierend auf deren Sozialverhalten oder bekannten bzw prognostizierten persönlichen Merkmalen, wenn dadurch Personen(gruppen) nachteilig oder unvorteilhaft behandelt werden, (i) in einem sozialen Kontext, der nicht mit dem Kontext der Datenerhebung oder -generierung zusammenhängt, oder (ii) in einer Weise, die ungerechtfertigt ist aufgrund des Verhaltens bzw der Schwere von Verstößen.
(c)Systeme für biometrische Massenüberwachung in Echtzeit an öffentlichen Orten für Zwecke der Rechtsdurchsetzung. Bestimmte Ausnahmen für einen zulässigen Einsatz derartiger Systeme sind jedoch enthalten (zB zielgerichtete Suche von Opfern und vermissten Kindern, substanzielle Bedrohung von Leben oder Sicherheit natürlicher Personen bzw Terroristenangriffe etc).17

Die Ausnahmetatbestände zur öffentlichen Echtzeitüberwachung sind kritisch zu betrachten, da AI zur Gesichtserkennung nicht fehlerfrei arbeitet und hier massive Rechtsverletzungen möglich sind. Abseits öffentlicher Plätze soll der Einsatz von AI zur biometrischen Identifikation nur als Hochrisikoanwendung gelten und daher unter Einhaltung der Verpflichtungen des AIA zulässig sein. Auch diese (zulässige) Überwachung außerhalb des öffentlichen Raums ist sehr kritisch zu betrachten. Der Anwendungsfall der biometrischen Überwachung illustriert, dass die Trennlinie zwischen verbotenen AI-Systemen und AI-Systemen, die "nur" dem Hochrisikobereich zugeordnet wurden und daher zulässig sein sollen, überdacht werden sollte. Einem Verbot invasiver Praktiken zugunsten der Grund- und Freiheitsrechte ist im Zweifel tendenziell der Vorzug zu geben.

3.2.AI-Systeme in Hochrisikobereichen

AI-Systeme, bei denen die EU-Kommission hohe Risiken identifizierte, wurden im AIA in drei Gruppen zusammengefasst:

(a)AI-Systeme als Sicherheitskomponenten in Maschinen und Produkten unter bestimmten harmonisierten Rechtsakten oder AI Systeme, die selbst als Produkte unter diesen Rechtsakten zu qualifizieren sind (Art 6 Annex III Teil A AIA).
(b)AI-Systeme als Sicherheitskomponenten in Maschinen und Produkten in nicht-harmonisierten Produktbereichen (Art 6 Annex III Teil B AIA).
(c)AI-Systeme in weiteren sensiblen Bereichen (Art 6 Annex III).

3.2.1.AI-Systeme in Maschinen und Maschinenprodukten

AI-Systeme, die selbst als Produkt in ausgewählten harmonisierten Bereichen gelten oder als Sicherheitskomponenten in diesen Produkten oder Maschinen eingesetzt werden (Art 6 Annex II Teil A und Teil B AIA), gelten als AI im Hochrisikobereich. Dies betrifft eine breite Palette von Verbraucherprodukten und gewerblichen Produkten (zB Spielzeug, Medizinprodukte, Baumaschinen, Seilbahnanlagen, Aufzüge, Funkanlagen etc).

Gleichzeitig mit dem AIA soll die bestehende Maschinenrichtlinie durch eine neue Maschinenverordnung18 ersetzt werden. Angedacht ist, dass der AIA die Risiken und Voraussetzungen für AI-Systeme adressiert, die Teile von bestimmten Maschinen oder Maschinenprodukten sind und daher als hoch riskant eingestuft werden. Die Bestimmungen der neuen Maschinenverordnung sollen währenddessen die sichere Integration des AI-Systems und die Sicherheit des Gesamtprodukts sicherstellen. Damit ist nur eine Konformitätsbewertung erforderlich. Zielsetzung der Maschinenverordnung ist es, für mehr Rechtsklarheit zu sorgen und weiter den Verwaltungsaufwand und Kosten für Unternehmen zu verringern (zB Zulassung digitaler Formate für die Dokumentation, Senkung der Konformitätsbewertungsgebühren für KMU).

Für Produkte und Maschinen, die nicht Teil des harmonisierten Rechtsrahmens sind, werden die Anforderungen für AI-Systeme in Hochrisikobereichen durch den AIA geregelt (Art 6 Annex II Teil B AIA). Die Sicherheit des Gesamtprodukts ist separat in den jeweils anwendbaren Produkt- und Maschinenbestimmungen zu prüfen und abzubilden. Dies betrifft bspw die Bereiche zivile Luftsicherheit, Fahrzeuge sowie land- und forstwirtschaftliche Fahrzeuge.

3.2.2.AI-Systeme in weiteren Hochrisikobereichen

Auch AI-Systeme in folgenden sensiblen Bereichen sind nach Auffassung der EU-Kommission mit hohen Risiken verbunden und daher strengen Compliance-Regelungen zu unterwerfen (Art 6 Annex III AIA):

(a) Kritische Infrastruktur: Systeme, die als Sicherheitskomponente beim Management oder Betrieb von Straßenverkehr, Wasserversorgung, Gas Heizung und Elektrizität eingesetzt werden.
(b) Schul- oder Berufsausbildung: Systeme zur Evaluierung des Zugangs zu Bildung oder Ausbildung, für die Auswertung von Zugangstests und zur Bewertung von Personen in Bildungs- oder Ausbildungseinrichtungen.
(c) Personalbereich: Systeme für Recruiting, Stellenausschreibungen, die Durchsicht oder Bewertung von Bewerbungen, die Bewertung von Kandidaten bei Interviews und Tests sowie für die Entscheidungsfindung bei Beförderungen, Kündigungen oder die Performancebewertung.
(d) Elementare private und öffentliche Dienstleistungen: Systeme öffentlicher Behörden zur Bewertung von Ansprüchen auf Unterstützungsleistungen sowie Gewährung, Entziehung oder Rückforderung derselben; Systeme für die Abfertigung oder Prioritätsreihung bei Notfalldiensten (inkl Feuerwehr und medizinischer Hilfe); Systeme zur Bewertung von Bonität und Kreditwürdigkeit (ausgenommen im kleinen Maßstab für eigene Nutzung).
(e) Strafverfolgung: Systeme von Behörden bspw für die Vorhersage potenzieller Strafdelikte, die Bewertung von persönlichen Eigenschaften oder Charakteristiken, das Profiling von Personen in Bezug auf potenzielle Strafdelikte, die Bewertung der Zuverlässigkeit von Beweisen im Strafbereich etc.
(f) Migration, Asyl und Grenzkontrollen: Systeme zur Bewertung von Sicherheits- oder Gesundheitsrisiken von Migration, zur Verifizierung von Reisedokumenten sowie zu Bearbeitung von Asyl-, Visa- und Aufenthaltsgenehmigungen etc.
(g) Rechtspflege: Systeme zur Unterstützung der Justiz bei Recherchen, der Interpretation von Fakten und Recht sowie bei der Rechtsanwendung.
(h) Biometrische Identifikation: Systeme zur biometrischen Identifikation von natürlichen Personen in Echtzeit oder nachträglich (außerhalb öffentlicher Plätze).

Gerade in den Bereichen Strafverfolgung, Migration, Asyl und Grenzkontrolle sowie Rechtspflege ist beim Einsatz von AI hohe Vorsicht geboten, vor allem bei entscheidungsnahen Tätigkeiten. Eine Bewertung von Anträgen oder die Anwendung von Recht im Sinne einer Subsumtion steht in einem kritischen Spannungsverhältnis jedenfalls zum Grundsatz der freien Beweiswürdigung und zum Recht auf den gesetzlichen Richter. Eine Trennung zwischen zulässigem AI-Einsatz bei untergeordneten Hilfstätigkeiten (AI-Einsatz bei Recherche, Durchsuchen und Organisieren von Dokumenten etc) und inhaltlicher juristischer Tätigkeit, die menschlichen Entscheidungsträgern vorbehalten ist, ist zutreffender.

3.2.3.Anforderungen an AI-Systeme in Hochrisikobereichen

AI-Systeme in allen Hochrisikobereichen müssen strenge Vorgaben erfüllen, bevor diese auf den Markt gebracht werden dürfen. Die Anforderungen des AIA sind folgende:

(a) Risikomanagement und Qualitätsmanagement: Anbieter von hoch riskanten AI-Systemen müssen ein kontinuierliches, iteratives Risikomanagementsystem für den gesamten Lebenszyklus des Systems einrichten (Art 9). Dieses ist regelmäßig zu aktualisieren. Weiter ist ein Qualitätsmanagementsystem (Art 17) notwendig.
(b) Hohe Datenqualität: Systeme, welche auf Trainings- und Testdaten beruhen, müssen eine entsprechende Daten-Governance implementieren und dürfen nur relevante, repräsentative, fehlerfreie und vollständige Daten verwenden (Art 10).
(c) Dokumentation, Protokollierung und Rückverfolgbarkeit: Systeme bedürfen einer technischen Dokumentation, die bestimmte Mindestinhalte aufweist und stets aktuell gehalten werden muss (Art 11). Weiter müssen die Systeme zur Nachverfolgbarkeit und Transparenz Ereignisse (Logs) automatisch während des Betriebs dokumentieren (Art 12).
(d) Nutzerinformation: Für Nutzer muss eine klare, korrekte und verständliche Anleitung zur Verfügung gestellt werden, damit diese die Ergebnisse des Systems entsprechend interpretieren können. Anleitungen müssen einem bestimmten Mindeststandard entsprechen (Art 13).
(e) Menschliche Aufsicht: Systeme müssen derart designt sein, dass sie effektiv durch Menschen überwacht werden können (Art 14).
(f) Genauigkeit, Robustheit und Cybersicherheit: Hier sind entsprechend dem Einsatzbereich angemessene Vorkehrungen zu treffen (Art 15).

Anbieter von AI-Systemen in Hochrisikobereichen müssen (mit Ausnahmen) selbst eine Bewertung der Konformität des Systems vornehmen (Art 48 AIA). Die Konformitätsbewertung soll die Aussage, dass das System die Anforderungen des AIA erfüllt, und weitere bestimmte Angaben, wie Name und Typ des Systems, Angaben zur Identifikation des Systems, Referenzen zu Rechtsgrundlagen, Datum und Name des Ausstellers (Annex V AIA), enthalten. Explizit anzuführen ist auch, dass die Konformitätsbewertung in der Eigenverantwortung des Anbieters erfolgte. Eingeführt wird auch eine CE-Kennzeichnung, welche Anbieter für zunächst fünf Jahre bei Erfüllung der Voraussetzungen an ihrem Produkt anbringen dürfen. Verlängerungen sind zulässig. Bei Maschinen und Maschinenprodukten im harmonisierten Bereich (Annex III Teil A) sind die jeweiligen harmonisierten Produktbestimmungen zu beachten und es ist die zuständige nationale Behörde bei der Durchführung der Konformitätsbewertung in bestimmten Fällen einzubeziehen. Geplant ist auch die Einrichtung einer EU-Datenbank für AI-Systeme in Hochrisikobereichen. Vor Vermarktung oder Inbetriebnahme müssen derartige AI-Systeme in die EU-Datenbank eingetragen werden (Art 51, Art 60 AIA).

3.3.AI-Systeme mit geringem bis minimalem Risiko

Für AI-Systeme mit geringem Risiko sollen besondere Transparenzverpflichtungen gelten (Art 52). Systeme wie Chatbots, die mit natürlichen Personen interagieren, sollen ihre Nutzer darüber informieren, dass sie mit einer Maschine und keiner echten Person interagieren (Art 52 Abs 1). Menschen sollen in die Lage versetzt werden, eine informierte Entscheidung darüber zu treffen, ob sie derartige Anwendungen weiter nutzen und mit diesen interagieren wollen. Ebenso sollen sogenannte Deep Fakes, also durch Systeme manipulierte oder generierte unreale Bild-, Audio- und Videodateien, gekennzeichnet werden. Anzugeben ist, dass die dargestellten Inhalte künstlich generiert oder manipuliert wurden (Art 52 Abs 3). Andere Anwendungen von AI, von denen kein oder nur ein minimales Risiko ausgeht (zB AI unterstützte Videospiele, Spamfilter etc), sollen frei genutzt werden können und nicht vom AIA erfasst werden.

3.4.Strafdrohungen für Verstöße

Das Einsatzverbot für verbotene AI-Systeme soll mit einer Strafe von bis zu 30 Mio € oder 6 % Prozent des weltweiten Jahresumsatzes (je nachdem, welcher Wert höher ist) abgesichert werden (Art 71 Abs 3 AIA). Diese drakonische Strafdrohung ist damit signifikant höher als die Strafdrohung für materielle Verstöße unter der DSGVO. Andere Verstöße gegen die Verpflichtungen gemäß dem AIA sind DSGVO-gleich mit Strafen von bis zu 20 Mio € oder 4 % des weltweiten Jahresumsatzes sanktioniert (Art 71 Abs 2 AIA). Nationalen Behörden falsche, unvollständige oder irreführende Informationen zu übermitteln, wird ebenfalls mit hohen Strafen von bis zu 10 Mio € oder 2 % des weltweiten Jahresumsatzes geahndet (Art 71 Abs 5 AIA).

Insgesamt reflektiert die Höhe der Strafdrohungen das Gefahrenpotenzial für Grund- und Freiheitsrechte von Personen, welche durch den AIA geschützt werden sollen. Abzuwarten bleibt jedoch die tatsächliche praktische Anwendung und Umsetzung durch die Behörden. Zentral im AI-Bereich ist ein Verständnis für die Anwendungen und Technologien. Ein entsprechender Aufbau von Expertise in den nationalen Behörden ist daher elementar. Ohne entsprechende Behördenkompetenz und Ressourcen wird ein Überwachen und Kontrollieren von AI-Systemen und der Anforderungen bzw das Aufdecken von Verstößen tendenziell sehr schwierig sein.

4.AI Sandbox mit Erleichterungen für Start-ups und KMUs

In den Bereichen Forschung und Entwicklung ist die EU unter den führenden Kompetenzzentren weltweit. Aufholbedarf im Vergleich zu den USA oder Asien hat die EU in der Kommerzialisierung der exzellenten Forschungs- und Entwicklungsarbeit. Die EU hat das Innovationspotenzial von AI erkannt und möchte einen sicheren und ethischen Einsatz von AI fördern. Ähnlich wie seit Jänner 2019 für FinTechs bei der Finanzmarktaufsichtsbehörde bereits umgesetzt, soll nunmehr auch eine AI Sandbox unter behördlicher Aufsicht implementiert werden (Art 53 AIA). Damit soll sowohl langfristig Vertrauen in AI und Robotics aufgebaut als auch Innovationsführerschaft in der EU unterstützt werden. Bei der Aufnahme in AI Sandbox-Programme sollen KMUs und Start-ups bevorzugt werden (Art 55 AIA). Der Erfolg von AI Sandbox-Programmen wird von der Umsetzung und Förderung dieses Konzepts durch attraktive Rahmenbedingungen abhängen.

5.Fazit und Ausblick

Der Verordnungsentwurf des AIA bietet einen ersten Ansatzpunkt für koordinierte und harmonisierte Mindestregelungen für AI-Systeme in der EU und ist, soweit ersichtlich, das erste umfassende Regelwerk für AI weltweit. Damit hat die EU die Möglichkeit genutzt, global einen Mindeststandard für AI zu setzen, der als Vorlage für weitere AI-Regelungen dienen kann. Wichtig in der Praxis wird das Herausarbeiten und Definieren von praktischen Standards zur Erfüllung der Verpflichtungen unter dem AIA sein. Der AIA lässt erkennen, dass die Verordnung als eine Schnittstelle zu bestehenden Regelungen designt ist und sich somit als Baustein für AI-Themen in bestehende Konzepte einfügen soll. Wichtig wird die weitere Festlegung des Zusammenspiels insb mit der DSGVO (zB Profiling, Zweckbindungsgrundsatz, Betroffenenrechte etc) und den Haftungsregimen sein, welches derzeit noch offen ist.

Für die Beschlussfassung des AIA ist im Besonderen die Zustimmung des EU-Parlaments notwendig. Hier sind vor allem tiefgreifende Diskussionen im Feld der biometrischen Echtzeit-Massenüberwachung zu erwarten. Derzeit sieht der AIA vor, dass dies im öffentlichen Raum eine absolut verbotene Anwendung von AI-Systemen ist, mit bestimmten Ausnahmen zur Rechtsverfolgung. Zulässig soll biometrische Identifikation abseits öffentlicher Orte sein. Ob dieses Konzept, insb auch die vorgesehenen Ausnahmen im öffentlichen Bereich, restriktiv genug ist, werden die zu erwartenden intensiven Verhandlungen zeigen. Angesichts der hohen Sensibilität der berührten Grund- und Freiheitsrechte ist ein absolutes Verbot eher zu befürworten.

Insgesamt sind daher noch Änderungen und Anpassungen des Erstentwurfs des AIA zu erwarten. Angesichts der relativ zügigen Veröffentlichung des im Herbst letzten Jahres angekündigten Verordnungsentwurfs ist davon auszugehen, dass das Thema AI von der EU-Kommission als einer der Kernaspekte eines sicheren und transparenten digitalen EU-Binnenmarkts weiter prioritär vorangetrieben wird.

1

European Commission, Proposal for a Regulation of the European Parliament and of the Council, Laying down harmonized rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts, COM (2021) 206 final vom 21. 4. 2021.


2

European Commission, Shaping Europe’s digital Future, vom Februar 2020.


3

European Commission, White Paper on Artificial Intelligence - A European approach to excellence and trust, COM (2020), 65 final, 2020.


4

Communication from President of the European Commission von der Leyen, A Union that strives for more, My agenda for Europe: political guidelines for the next European Commission 2019-2024, 2019.


5

European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies, 2020/2012(INL).


6

European Parliament resolution of 20 October 2020 with recommendations to the Commission on a civil liability regime for artificial intelligence, 2020/2014(INL).


7

European Parliament resolution of 20 October 2020 on intellectual property rights for the development of artificial intelligence technologies, 2020/2015(INI).


8

European Parliament Draft Report, Artificial Intelligence in criminal law and its use by the police and judicial authorities in criminal matters, 2020/2016(INI).


9

European Parliament Draft Report, Artificial Intelligence in education, culture and the audiovisual sector, 2020/2017(INI).


10

ErwGr 1 und 15 AIA.


11

ErwGr 5 AIA.


12

AIA Seite 3.


13

Methode der mathematischen Statistik, benannt nach Thomas Bayes. Bayes’sche Schätzungen sind Schätzfunktionen, die zusätzlich zu den beobachteten Daten Vorwissen (wenn vorhanden) über einen zu schätzenden Parameter berücksichtigen. Vgl ausführlicher DeepAI, Bayesian Statistics, What are Bayesian Statistics, unter https://deepai.org/machine-learning-glossary-and-terms/bayesian-statistics (21. 4. 2021).


14

ErwGr 6 AIA.


15

ErwGr 10 AIA.


16

Ausdrücklich ausgenommen vom territorialen Anwendungsbereich sind Drittstaatsbehörden und internationale Organisationen, die AI-Systeme im Rahmen der Rechtsdurchsetzung und justiziellen Zusammenarbeit auf der Grundlage von internationalen Abkommen mit der EU oder Mitgliedstaaten einsetzen (Art 2 Abs 4 AIA).


17

Mitgliedstaaten sollen zu den explizit benannten Zwecken biometrische Identifikationssysteme an öffentlichen Orten unter Berücksichtigung bestimmter Faktoren einsetzen können. Hierfür ist zunächst eine gesetzliche Grundlage zu schaffen. Eine gerichtliche Genehmigung soll allgemein für biometrische Echtzeitidentifikation erforderlich sein, außer bei Gefahr in Verzug (justified situation of urgency), wo der Einsatz im Laufen oder nachträglich genehmigt werden kann (Art 5 Abs 1 lit d, Abs 2-4 AIA).


18

European Commission, Proposal for a Regulation of the European Parliament and of the Council on machinery products, COM (2021) 202 final.


Artikel-Nr.
RdW digital exklusiv 2021/34

29.04.2021
Autor/in
Jeannette Gorzala

Dr. Jeannette Gorzala, BSc, ist Rechtsanwältin in Wien mit Spezialisierung auf Wirtschaftsrecht und neue Technologien. Sie begleitet rechtlich und strategisch regelmäßig Organisationen beim ethischen und transparenten Einsatz von künstlicher Intelligenz, AR/VR, Metaverse-Konzepten und Blockchain-Modellen. Als Mitglied des Steering Committee des European AI Forum und CLO von AI Austria wirkt sie an der Gestaltung des europäischen KI-Rechtsrahmens mit. Jeannette Gorzala ist Associate Professor an der Woxsen Universität in Indien, Speakerin und Autorin zahlreicher Fachpublikationen.