Rechtlicher und ethischer Umgang mit KI
Bildquelle: Unsplash
A. Einleitung
Immer wieder begegnet uns im Rahmen der Auseinandersetzung mit Legal Tech der Begriff der Künstlichen Intelligenz. Neben einer technischen Auseinandersetzung (Fn. 1) wollen wir uns an dieser Stelle mit den rechtlichen Rahmenbedingungen auseinandersetzen. Dabei fragen wir uns, welche rechtliche Regelungen es derzeit schon zum Thema Algorithmen und KI gibt, welche Regelungen geplant sind und wie auch Unternehmen ihre Verantwortung immer bewusster wahrnehmen und übergesetzliche Selbstverpflichtungen für eine verantwortungsvolle Digitalisierung umsetzen (Fn. 2).
B. Rechtliche Fragestellungen und derzeitige Lösungen
I. KI im Zivil- und Strafrecht
1. Allgemeines Zivilrecht
Rechtliche Fragen rund um KI stellen sich nicht etwa nur im Datenschutzrecht, sondern z.B. auch in alltäglichen Bereichen wie dem Zivilrecht bei der Vertragsgestaltung und der Zurechnung von Verhalten. Kann die Zurechnung von Verhalten einer KI je nach Automatisierungsgrad zivilrechtlich noch über die derzeitigen allgemeinen Zurechnungsnormen nach §§ 278, 166 BGB (bei hoher Autonomisierung in analoger Anwendung (Fn. 3)) ausgelegt werden, so stößt ein Vertragsschluss durch eine KI bei geltendem Recht auf weitere Probleme (Fn. 4). Denn bei der Zurechnung von Willenserklärungen, also z.B. eine Erklärung über den Abschluss eines Vertrages, durch eine autonome KI, kommt eine Regelung über die Vertretungsregeln nach den §§ 164ff. BGB (analog) in Betracht, wobei sich dann Probleme ergeben, wenn die „Vollmacht“ von der KI überschritten wird, da die Vertragsgegenseite dann keinen Regress nach § 179 BGB bei der KI nehmen kann (Fn. 5). Anders ausgedrückt: Wenn eine Person als Vertreter für eine andere Person handelt und einen Vertrag abschließt, obwohl sie dazu nicht ermächtigt wurde, kann der Vertragspartner nach §§ 179, 177 BGB Schadensersatz von der Person verlangen, die den Vertrag abgeschlossen hat. Wenn nun eine KI statt einer Person ohne gesonderte Ermächtigung einen Vertrag für jemanden schließt, kann der Vertragspartner bei etwaigen Schäden und Problemen keinen Regress nehmen, da ein menschlicher Vertreter ohne Vertretungsmacht fehlt, von dem Schadensersatz verlangt werden kann.
Dieser kurze Einblick zeigt bereits mögliche Probleme und künftige Entwicklungsfelder, die sich auch in rechtlicher Hinsicht in allen Bereichen des täglichen Lebens ergeben können.
2. KI und zivilrechtliche Haftung
Regelmäßig und durch den Einsatz von autonomen Fahrzeugen und anderen Systemen sehr relevant stellt sich die Frage, wer letztlich für Fehler einer handelnden KI haften muss, wenn Verantwortung bzw. Handlungen an eine solche KI abgegeben werden. Hier stellen sich grundsätzliche Fragen nach einer möglichen Rechtspersönlichkeit der KI, aber auch, wer für die Folgen von Fehlfunktionen konkret haftet und wie er im Einzelfall Regress nehmen kann. Im bisher geltenden Recht bestimmt sich dies insbesondere nach den Grundsätzen der deliktischen Haftung gemäß § 823 BGB sowie der Produkthaftung nach § 1 ProdHaftG; für den Straßenverkehr gelten zusätzlich die Regeln des StVG, die in § 7 StVG eine Haftung des Fahrzeughalters vorschreiben, der dann wiederum z.B. beim Hersteller Regress nehmen könnte. In unserem Dossier zur Haftung beim Einsatz autonomer Fahrzeuge beschäftigen wir uns ausführlich mit den Haftungsgrundsätzen beim Einsatz solcher Systeme.
3. KI und Strafrecht
Auch die strafrechtliche Verantwortung wird mit der steigenden Relevanz und dem vermehrten Einsatz von KI rechtlichen Herausforderungen begegnen. Denn grundsätzlich ist das Strafrecht individuell geprägt, sodass zunächst nur der „Bediener“ der Maschine für eine Verantwortung in Betracht kommt. Wenn es nun – anders als im Zivilrecht – aber nicht mehr um die Haftung eines Autounfalls für Schäden geht, sondern möglicherweise um strafrechtliche Verurteilungen zu vorsätzlichem oder fahrlässigem Handeln bei Unfällen, so würde der Sinn autonomer Maschinen ad absurdum geführt, wenn die Führung und Entscheidungsgewalt letztlich doch beim Menschen bleiben würde, der als strafrechtlich Verantwortlicher stets aufpassen müsste. (Fn. 6) Bei fehlender Strafbarkeit eines Teilnehmers wird dagegen das Strafbedürfnis der Bevölkerung bzw. der ggfs. betroffenen Angehörigen missachtet (Fn. 7).
II. KI und Recht des Geistigen Eigentums
Im Bereich des Geistigen Eigentums stellt sich zunächst die Frage, inwieweit Programmcodes bzw. Algorithmen rechtlich geschützt werden können. Dabei kommen urheberrechtliche, patentrechtliche, markenrechtliche, wettbewerbsrechtliche oder zivilrechtliche Vorschriften in Betracht. (Fn. 8) Im Urheberrecht können z.B. Computerprogramme nach § 69a UrhG als Werk geschützt sein. Darunter fallen zwar keine einzelnen Algorithmen oder zugrunde liegende Ideen und Grundsätze, jedoch z.B. die konkrete Zuordnung und Implementierung verschiedener Algorithmen in einem Programm (Fn. 9).
Im Bereich des Geistigen Eigentums kann es aber nicht nur um Fragen zum Schutz von Algorithmen und Programmen an sich gehen, sondern auch um die Frage, inwieweit Erzeugnisse einer KI z.B. durch das Urheberrecht geschützt werden können und wie die Erzeugnisse daraus verwertet werden. So wurde im Jahr 2018 in einem Kunstauktionshaus ein Portrait für 432.500 US-Dollar versteigert, das durch den Einsatz von KI gefertigt wurde (Fn. 10), sodass sich insbesondere die Frage der urheberrechtlichen Einordnung stellt. Im Urheberrecht ist der Schöpfer eines Werks (§§ 1, 7 UrhG) geschützt (Fn. 11), also der Urheber von Filmen, Schriften, Kunstwerken und weiteren Formen. Eingeschränkt wird dies nach § 2 Abs. 2 UrhG dadurch, dass ein solches Werk sich als persönliche geistige Schöpfung darstellen muss. Dies wird in Europa dahingehend ausgelegt, dass es sich 1. um ein Original, also eine eigene geistige Schöpfung handelt und 2. Die geistige Schöpfung zum Ausdruck gebracht wird (Fn. 12). Der Urheber ist dabei nach Art. 2 S. 1 InfoSoc-RL zwingend eine Person. Stellt man nun auf die KI als Werkzeug des initiierenden Schöpfers ab, steht man vor einem ähnlichen Problem wie bei der zivilrechtlichen Haftung, da in Frage gestellt werden muss, ab welchem Grad der Autonomisierung das Produkt einer KI-basierten Anwendung noch als selbstständige Schöpfung unter Zuhilfenahme von KI gesehen werden kann oder ein selbstständiges Tätigwerden vorliegt, das nicht mehr zugerechnet werden könnte (Fn. 13). Die Thematik führt auch zu weiteren Problemen: Beispielhaft müsste auch geprüft werden, ob das Machine Learning zum Lernen auf urheberrechtliche Originale zurückgegriffen hat und diese in urheberrechtlich relevanter Art und Weise verarbeitet und im Endergebnis widergegeben hat (Fn. 14).
III. KI und Datenschutz
Ein für KI und ML besonders relevanter Teilbereich in der rechtlichen Auseinandersetzung ist das Datenschutzrecht. Machine Learning erfordert sehr große und kontinuierliche Datenmengen, die ausgewertet werden müssen, um immer bessere Ergebnisse erzielen zu können. Je nach konkreter Anwendung kann es sich dabei natürlich auch um personenbezogene Daten handeln, die verarbeitet werden. Für personenbezogene Daten sind gleichwohl die Vorgaben der DSGVO und der weiteren Datenschutzgesetze zu beachten. So gelten z.B. die allgemeinen Grundsätze zu Datenrichtigkeit und Datenqualität sowie Transparenz bei der Verarbeitung nach Art. 5 DSGVO (Fn. 15). Außerdem muss für die rechtmäßige Verarbeitung ein Erlaubnistatbestand wie z.B. eine Einwilligung vorliegen. Auch die Grundsätze privacy by design und privacy by default nach Art. 25 DSGVO, die Auskunfts- und Betroffenenrechte nach Art. 12ff. DSGVO sowie die weiteren Regelungen der DSGVO bieten einen groben Rechtsrahmen für den grundsätzlichen Umgang mit Daten im Zuge des Machine Learnings. Auch das grundsätzlich bestehende Verbot automatisierter Einzelfallentscheidungen zu Lasten von Personen (siehe dazu sogleich) sowie die Daten- und IT-Sicherheit bilden einen gewissen begrenzenden Rahmen für KI-gestützte Anwendungen Ein konkreter Rechtsrahmen für die Anwendung von KI ist allerdings nicht reguliert, zumal zu beachten ist, dass die DSGVO z.B. keine Anwendung findet, wenn das Training mit anonymisierten oder (erst recht) gar synthetischen Daten durchgeführt wird (Fn. 16). Insbesondere im Kontext des im Mai 2024 verabschiedeten AI Acts kommt es auch zur Komplexität paralleler Rechtsakte im Bereich der datenschutzrechtlichen Regulierung von Künstlicher Intelligenz. Einerseits rekurriert die KI-Verodnung der europäischen Union etwa in Erwägungsgrund 10 auf die parallele Anwendung der DSGVO und verfolgt durch ihren risikobasierten Ansatz in vielen Teilen ähnliche Ziele zum Schutz sensitiver personenbezogener Daten. Andererseits zielt die Verordnung (etwa durch die Schaffung von “regulatorischen Sandkästen”, bei denen gewisse noch nicht näher bestimmte regulatorische Lockerungen gewährt werden sollen (Fn. 17)) auch explizit auf die Förderung der Entwicklung von Künstlicher Intelligenz in der EU ab, wofür voraussichtlich große Datenmengen benötigt werden. Es bleibt ein Spannungsverhätlnis im augenscheinlich unaufgeklärten Widerspruch zu datenschutzrechtlichen Grundsätzen wie etwa dem der Datensparsamkeit aus Art. 5 DSGVO.
IV. KI und Transparenz / Diskriminierung
KI und maschinelles Lernen sind auf Daten angewiesen, die zur Verfügung gestellt werden und aus denen die maßgeblichen Anwendungen dann lernen können. Dabei spielt die Anordnung und Auswahl der Beispieldaten eine große Rolle für das Ergebnis, sodass es je nach eingespeister Datenlage zu Diskriminierungen kommen kann, die auch rechtlich relevant sind. So kam es in der Vergangenheit beispielsweise dazu, dass die Gesichtserkennung von Google Foto-App dunkelhäutige Menschen als Gorillas einstufte oder ein Prognosetool für die Rückfallwahrscheinlichkeit von Straftätern in den USA (COMPAS) schwarze Täter eher kriminell einordnet als weiße Täter (Fn. 17). Doch solche Prognosen können nicht nur in amerikanischen Strafverfahren relevant werden, sondern finden sich potentiell in allen Lebensbereichen, darunter das Arbeitsrecht, Mietrecht, Verwaltungsrecht oder auch die Kreditvergabe. (Fn. 18) Im Arbeitsrecht können sich z.B. Diskriminierungskonflikte beim Einsatz von KI in Bewerbungsverfahren ergeben, wenn bestimmte Schlüsselwörter für Algorithmen eher mit Männern als mit Frauen verbunden sind (Fn. 19) oder die eingegebenen Trainingsdaten Muster einer Bevorzugung oder Benachteiligung wegen bestimmter diskriminierungssensibler Merkmale erkennen und im Ergebnis übernehmen. Wenn in der Vergangenheit also beispielsweise bei ähnlicher Qualifikation häufiger Männern als Frauen der Vorzug gegeben wurde, könnten die diskriminierenden Muster analysiert und letztlich in die Anwendung integriert werden. Arbeitgeber können auch sogenanntes Predictive Policing durchführen, also die Wahrscheinlichkeit berechnen lassen, dass ein Arbeitnehmer relevante Straftaten begeht, wobei insbesondere Grenzen der DSGVO und des BDSG zu berücksichtigen sind (Fn. 20). Im Bereich des Mietrechts dagegen geht es um Fragen der Wohnungsvergabe oder auch Kündigung durch KI, im Bereich Legal Tech und Justiz geht es um die Diskriminierung und Transparenz bei unterstützenden Justizhandlungen (s. COMPAS oder in Deutschland im Familienrecht Gutdeutsch), im Verwaltungsrecht um den Erlass von Verwaltungsakten oder im Kreditrecht um die Vergabe von Krediten, bei der Anlageberatung oder weiteren Einsatzgebieten (Fn. 21). Grenzen finden sich dafür im deutschen Recht zunächst in den Grundgesetzen der Verfassung nach dem Gleichheitsgrundsatz in Art. 3 GG, aber auch einfachgesetzlich im Allgemeinen Gleichbehandlungsgesetz (AGG) für Gebiete wie das Miet- und Arbeitsrecht, das eine Ungleichbehandlung wegen diskriminierender Aspekte verbietet. (Fn. 22) Doch auch das Datenschutzrecht bietet neben den allgemeinen Grundsätzen zur rechtmäßigen Datenverarbeitung Schutz, indem z.B. keine automatisierten Entscheidungen zu Lasten einer Person getroffen werden dürfen (Art. 22 DSGVO, § 37/54 BDSG), d.h. ein Mensch zwischen Auswertung und Entscheidung zwischengeschaltet werden muss. Die fehlende Transparenz und das Potential für Diskriminierungen folgt auch daraus, dass der Quellcode von Software oftmals nicht überprüft werden kann, sodass keine Nachvollziehbarkeit und Überprüfbarkeit gegeben ist. Ein übergreifender Rechtsrahmen lässt sich bisher nicht finden. Lediglich einzelne Teilrechtsgebiete führen Transparenzvorschriften für Algorithmen ein. So enthält z.B. der 2020 in Kraft getretene Medienstaatsvertrag (MStV) (Fn. 23) mit den §§93ff. MStV erstmals Vorschriften, die sich ausdrücklich mit der Transparenz von algorithmischen Entscheidungen beschäftigen (Fn. 24). Danach werden Medienintermediäre, also z.B. Plattformen wie Facebook oder Google verpflichtet, Informationen über die Kriterien der Aggregation, Selektion und Präsentation von Inhalten und ihrer Gewichtung bei Anfragen bereitzustellen, wobei auch die Funktionsweise der Algorithmen in verständlicher Information preisgegeben werden muss und in §94 MStV ein ausdrückliches Diskriminierungsverbot vorgeschrieben wird. Größere Änderungen im Bereich der gesetzlichen Vorschriften zu Transparenz und Diskriminierung werden voraussichtlich auf europäischer bzw. internationaler Ebene geregelt werden (s. dazu sogleich). Das Fehlen rechtlicher Regelungen und die Geschwindigkeit der technischen Entwicklung, die der rechtlichen Entwicklung stets ein wenig vorauseilt, hat in der letzten Zeit auch vermehrt zur freiwilligen Selbstverpflichtung von Unternehmen geführt. Viele Unternehmen führen gerade im Bereich von Daten und Algorithmen freiwillige Limitierungen ein, um ihrer unternehmerischen Verantwortung gerecht zu werden und transparent für die Nutzer und Nutzerinnen zu sein. Diese Leitlinien fallen unter den Begriff der Corporate Digital Responsibility (CDR) (Fn. 25).
V. KI und gesellschaftliches Risiko (AI Act)
Zur Begegnung von potenziell gefährlichen Einsatzszenarien von Künstlicher Intelligenz und zur Schaffung eines umfassenden, harmonisierten Rechtsrahmens für KI-Anwendungen verabschiedete die Europäische Union im Mai 2024 die Verordnung über Künstliche Intelligenz, auch bekannt als AI Act.
Als in vielen Teilen analog zur DSGVO gestaltete Verordnung gilt der AI Act unmittelbar in allen Mitgliedsstaaten und befindet sich aktuell in einer bis voraussichtlich 2026 anhaltenden Implementierungsphase. Diese Verordnung zur Künstlichen Intelligenz (engl. Artificial Intelligence Act) (Fn. 27) adressiert gefährliche Anwendungen, Transparenzprobleme, Handlungsverpfichtungen für Unternehmen, Förderung der KI-Entwicklung und viele weitere Inhalte.
Im Zentrum des AI Acts liegt ein risikobasierter Ansatz im Umgang mit potenziellen negativen Auswirkungen des Einsatzes von Künstlicher Intelligenz. Demnach werden KI-Anwendungen in vier Risikokategorien eingeteilt, welche jeweils entweder zu einem direkten Verbot oder zur Auferlegung eines spezifischen Regelungskatalogs führen. Der AI Act kategorisiert KI-Systeme in folgende vier Klassen: minimales Risiko, spezifisches Risiko, hohes Risiko und unannehmbares Risiko.
Als KI-Systeme mit unannehmbarem Risiko gelten Systeme, welche die in Art. 5 AIA beschriebenen verbotenen Praktiken realisieren (Fn. 29). Zu letzteren gehören z.B. Systeme, welche darauf ausgerichtet sind, auf menschliches Verhalten durch unterschwellige Beeinflussung, Täuschung oder Manipulation schädlichen Einfluss zu nehmen. Ferner werden etwa Systeme, welche vulnerablen Gruppen durch Diskriminierung schaden, soziale Bewertungssyteme einführen (“Social Scoring”) oder spezifische Formen der biometrischen Fernidentifizierung durchführen, in diese Kategorie des unannehmbaren Risikos gefasst und dadurch in der EU mit einem Verbot belegt.
In die Kategorie der KI-Systeme mit hohem Risiko wird in Art. 6 AIA eine Reihe an Anwendungen gefasst, bei denen eine besonders große gesellschaftliche Verantwortung besteht. Zu ihnen gehören beispielsweise automatisch KI-Systeme, welche z.B. als Teilkomponente bereits Teil von vorheriger Sicherheitsregulierung im Medizin-, Maschinen- oder Spielzeugbereich sind. Weiterhin wird im Anhang III des AI Acts explizit definiert, welche KI-Anwednung außerdem unter das Hochrisikoregime aus Art. 6 fallen. Derzeit gehören unter anderem jeweils definierte Formen von biometrischen Identifizierungssystemen, kritischen Infrastruktursystemen, Rekrutierungssystemen, automatischen Bewertungssystemen im Bildungssektor und KI-Systemen im öffentlichen Einsatz (Strafverfolgung, Justiz, Verwaltung, Asyl & Migration) zu den vom AI Act erklärten Hochrisikosystemen. In Vorraussicht auf anhaltende technische Entwicklung wurde die EU Kommission außerdem ermächtigt, diesen Anhang in der Zukunft gem. Art. 7 AIA zu erweitern. Für Betreiber dieser KI-Anwendungen gilt ein umfassender Pflichtenkatalog, welcher u.A. aktives Risikomanagement, Datenmanagement, Dokumentations- und Transparenzpflichten, menschliche Kontrolle, sowie in Teilen das Führen öffentlicher Datenbanken vorsieht (Fn. 30).
Weiterhin werden Systeme nach Art. 52 und Art. 69 AIA mit einer spezifischen Risikokategorie belegt, wenn sie mit natürlichen Personen interagieren. Zu Ihnen zählen etwa Chatbots, Sprachassistenten oder Deepfakes. Für sie gelten strengere Transparenz- und Offenlegungspflichten. Insbesondere müssen AI Systeme in dieser Kategorie wie etwa Chatbots den Nutzer informieren, dass sie mit einem KI System interagieren (Art. 52 (1),(2)). Ebenso müssen etwa Deep Fakes als solche gemäß Art. 52 (3) AIA deklariert werden.
Alle anderen KI-Syteme mit minimalem Risiko gem. Art. 4, 95 AIA unterliegen nur den allgemeinen Vorgaben des AI Acts und werden etwa angehalten, Schulungsmaßnahmen und Verhaltenskodexe zu implementieren.
Neben dem zentralen Bestandteil des risikobasierten Pflichten- und Verbotsansatzes sieht der AI Act noch eine Reihe an weiteren tangierenden Vorschriften vor. Diese enthalten beispielsweise Bestimmungen zu “General Purpose” KI-Systemen (Fn. 31), regulatorische Sandkästenprogramme, welche sichere KI Entwicklung in der EU beschleunigen sollen (Fn. 32), den Vollzug und die Sanktionsmöglichkeiten des AI Acts, geplanten Marktüberwachungs- und Informationsaustauschprogrammen sowie der Aufbau von für KI zuständigen nationalen Behörden und Anlaufstellen.
C. Zukünftige Regelungskomplexe
I. Rechtlich
Da Künstliche Intelligenz und die Regelung von Algorithmen ein sehr komplexes und länderübergreifendes Thema ist, wird sich der Rechtsrahmen neben der fachspezifischen Auseinandersetzung in einzelnen Gebieten künftig an internationalen Regelungen orientieren. Neben einem möglichen Handelsabkommen der Welthandelsorganisation (engl. World Trade Organisation/ WTO) über den Umgang mit Quellcodes und Transparenz, an dem mehr als 90 Staaten beteiligt sind (Fn. 26), bemüht sich insbesondere die EU mit dem in der Implementierung befindlichen AI Act um einen europäisch einheitlichen Rechtsrahmen. Langfristig soll sich Europa auch dadurch als zentraler Wegbereiter für KI etablieren. (Fn. 28)
II. Freiwillig (CDR)
Neben rechtlichen Regelungen sind die beschriebenen freiwilligen Selbstverpflichtungen von Unternehmen immer wichtiger. Da gesetzliche Regelungen auf den technischen Fortschritt oftmals nur reagieren können, tragen Unternehmen im Bereich der Digitalisierung eine besondere Verantwortung, der sie im Rahmen der Corporate Digital Responsibility mehr und mehr gerecht werden.
Fußnoten
- Vgl. dazu insbesondere die Beiträge von Prof. Grabmair von der TUM im Kontext der Legal Tech Expedition zu NLP, KI und technischen Grundlagen von Legal Tech.
- Vgl. dazu vertiefend unsere Exkursbeiträge zu CDR.
- Eine analoge Anwendung juristischer Normen heißt, dass die Regelungen Anwendung finden, obwohl sie nicht exakt „passen“, aber ein vergleichbarer Fall vorliegt, für den sonst eine Regelungslücke besteht. Bei einem hohen Autonomisierungsgrad kann die KI nicht mehr allein als Werkzeug des Ausführenden bei der Zurechnung des Verhaltens gesehen werden, es liegt aber ein vergleichbarer Fall vor und im Übrigen eine planwidrige Regelungslücke.
- Hacker: Europäische und nationale Regulierung von Künstlicher Intelligenz, NJW 2020, 2142.
- Hacker: Europäische und nationale Regulierung von Künstlicher Intelligenz, NJW 2020, 2142.
- Vgl. dazu im Überblick weiterführend: Redaktion beck-aktuell, becklink 2012906, Maschinen ins Gefängnis? Künstliche Intelligenz und das Recht.
- Vgl. auch Hilgendorf: https://presse.beck.de/beckextra-das-magazin/testgelaende-deutsches-recht-autonomes-fahren.aspx.
- Helmut Redeker, IT-Recht, 7. Auflage, S. 2.
- BeckOK UrhR, Kaboth/Spies, § 69a UrhG, Rn. 12.
- Ory/Sorge: Schöpfung durch Künstliche Intelligenz?, NJW 2019, 710.
- Ory/Sorge: Schöpfung durch Künstliche Intelligenz?, NJW 2019, 710.
- Ory/Sorge: Schöpfung durch Künstliche Intelligenz?, NJW 2019, 710.
- Ory/Sorge: Schöpfung durch Künstliche Intelligenz?, NJW 2019, 710.
- Ory/Sorge: Schöpfung durch Künstliche Intelligenz?, NJW 2019, 710.
- Hacker: Europäische und nationale Regulierung von Künstlicher Intelligenz, NJW 2020, 2142; vgl. hierzu im gleichen Kontext auch die weitere Einordnung des Schutzes von Algorithmen und des Schutzes von Datenbanken.
- Hacker: Europäische und nationale Regulierung von Künstlicher Intelligenz, NJW 2020, 2142; vgl. hierzu im gleichen Kontext auch die weitere Einordnung des Schutzes von Algorithmen und des Schutzes von Datenbanken.
- Steege: Algorithmenbasierte Diskriminierung durch den Einsatz von Künstlicher Intelligenz, MMR 2019, 715.
- Steege: Algorithmenbasierte Diskriminierung durch den Einsatz von Künstlicher Intelligenz, MMR 2019, 715.
- Steege: Algorithmenbasierte Diskriminierung durch den Einsatz von Künstlicher Intelligenz, MMR 2019, 715.
- Steege: Algorithmenbasierte Diskriminierung durch den Einsatz von Künstlicher Intelligenz, MMR 2019, 715.
- Ebd.
- Ebd.
- In Ablösung des Rundfunkstaatsvertrages.
- S. dazu vertiefend/ als Exkurs unser Dossier im Bereich CDR: CDR und Transparenz.
- Siehe dazu ausführlich/ vertiefend unsere Beiträge zu CDR.
- Vgl. dazu: https://netzpolitik.org/2021/handesabkommen-eu-will-verbot-von-offenlegungspflicht-fuer-quellcode/.
- Hilgendorf, Eric/Roth-Isigkeit, David, Die neue Verordnung der EU zur Künstlichen Intelligenz: Rechtsfragen und Compliance, 1. Auflage, München: C. H. Beck, 2023, § 9 B, S. 161.
- https://www.lto.de/recht/kanzleien-unternehmen/k/artificial-intelligence-act-erster-entwurf-eu-kommission-regulierung-kuenstliche-intelligenz/.
- Bomhard/Siglmüller: AI Act – das Trilogergebnis(RDi 2024, 45) 48
- Bomhard/Siglmüller: AI Act – das Trilogergebnis(RDi 2024, 45) 49
- Bomhard/Siglmüller: AI Act – das Trilogergebnis(RDi 2024, 45) 50
- Hilgendorf, Eric/Roth-Isigkeit, David, Die neue Verordnung der EU zur Künstlichen Intelligenz: Rechtsfragen und Compliance, 1. Auflage, München: C. H. Beck, 2023, § 9 B, S. 160.