Der AI Act und die digitale Wettbewerbsfähigkeit der EU: Chancen, Herausforderungen und die Zukunft der Künstlichen Intelligenz

23. August 2024, von Kai Zenner

Der AI Act – Notwendigkeit und Risikoansatz

In einer Welt, die zunehmend von künstlicher Intelligenz (KI) geprägt ist, hat die EU-Kommission den AI Act initiiert, um einen klaren rechtlichen Rahmen zu schaffen. Dieser Rahmen soll nicht nur Innovation fördern, sondern auch hohe Standards für Gesundheit, Sicherheit und Grundrechte gewährleisten.

Warum brauchen wir ein KI-Gesetz?

Die rasante Entwicklung von KI-Technologien bringt immense Vorteile, aber auch Risiken mit sich. Viele Ängste basieren auf Science-Fiction-Szenarien, doch in der Realität bleiben KI-Systeme weitgehend unter menschlicher Kontrolle. Der AI Act zielt darauf ab, das Potenzial der KI zu nutzen, während er gleichzeitig Risiken minimiert und Grundrechte schützt. Dies bedeutet, dass innovative Technologien gefördert werden, während gleichzeitig strenge Auflagen für den Schutz der Bürgerinnen und Bürger eingeführt werden.

Der risiko-basierte Ansatz

Der AI Act kategorisiert KI-Systeme nach ihrem Risiko:

  • Unannehmbare Risiken: Systeme, die eine klare Bedrohung darstellen, werden verboten. Dazu gehören KI-Anwendungen, die grundlegende Rechte und die Sicherheit gefährden, wie zum Beispiel bestimmte Überwachungstechnologien oder Anwendungen, die zu Diskriminierung führen könnten. Diese strengen Maßnahmen betreffen jedoch weniger als 1% aller KI-Systeme.
  • Hohe Risiken: Systeme, die signifikante Risiken für Gesundheit und Grundrechte bergen, müssen strenge Auflagen erfüllen. Dazu gehören beispielsweise KI-Systeme in der medizinischen Diagnostik oder im Bereich der kritischen Infrastrukturen. Diese Systeme machen etwa 5-15% aller KI-Anwendungen aus und müssen umfangreiche Tests und Zertifizierungen durchlaufen, um sicherzustellen, dass sie zuverlässig und sicher sind.
  • Begrenzte Risiken: Systeme, die spezifische Transparenzanforderungen erfüllen müssen. Hierzu zählen Anwendungen, die zwar keine unmittelbaren Gefahren bergen, aber dennoch eine gewisse Kontrolle erfordern, wie etwa Chatbots, die sich als menschliche Gesprächspartner ausgeben. Transparenzanforderungen bedeuten, dass Nutzer darüber informiert werden müssen, dass sie mit einer KI interagieren.
  • Minimale Risiken: Die Mehrheit der KI-Systeme fällt in diese Kategorie und unterliegt kaum Regulierungen. Dazu gehören beispielsweise einfache Automatisierungsprozesse in der Industrie oder KI-Anwendungen, die zur Verbesserung der Benutzererfahrung dienen. Diese Systeme können frei genutzt werden und unterliegen keinen besonderen Beschränkungen, außer sie halten sich freiwillig an empfohlene Verhaltenskodizes.

Der politische Zyklus – Von der Idee zum Gesetz

Die Entstehung des AI Acts ist ein komplexer Prozess, der mehrere Phasen durchläuft, von der Erstellung politischer Leitlinien über öffentliche Konsultationen bis hin zur finalen Gesetzgebung und deren Durchsetzung. Dieser Zyklus erfordert eine enge Zusammenarbeit zwischen den EU-Institutionen und den Mitgliedstaaten.

Regulierungsqualität

Die EU hat sich verpflichtet, qualitativ hochwertige Gesetze zu schaffen. Integrierte Leitlinien für eine bessere Regulierung und die Einbeziehung von Interessengruppen sind entscheidend, um den AI Act effektiv und praxisnah zu gestalten. Dies bedeutet, dass verschiedene Akteure – von Technologieexperten bis hin zu Bürgerrechtsorganisationen – an der Ausarbeitung und Bewertung des Gesetzes beteiligt werden. Diese breite Beteiligung soll sicherstellen, dass das Gesetz realitätsnah ist und sowohl die Innovationsförderung als auch den Schutz der Bürger im Blick behält.


Digitale Wettbewerbsfähigkeit – Status quo und Strategien

Die EU strebt an, ein globaler Führer im Bereich KI zu werden, steht jedoch vor erheblichen Herausforderungen. Nach dem Brexit hat die EU in vielen Kategorien gegenüber den USA und China an Boden verloren.

Strategien zur Stärkung der Wettbewerbsfähigkeit

  1. Regulatorisches Umfeld: Verbesserung der Gesetzgebung und Governance. Die EU muss sicherstellen, dass ihre Gesetze nicht nur klar und verständlich sind, sondern auch flexibel genug, um mit den rasanten technologischen Entwicklungen Schritt zu halten. Dies beinhaltet auch die Schaffung einer einheitlichen Regulierungslandschaft, die es Unternehmen erleichtert, ihre Produkte und Dienstleistungen in der gesamten EU anzubieten.
  2. Digitaler Binnenmarkt: Abbau nationaler Marktbarrieren. Ein wesentlicher Schritt zur Stärkung der Wettbewerbsfähigkeit ist die Schaffung eines echten digitalen Binnenmarkts. Dies bedeutet, dass Unternehmen ihre digitalen Produkte und Dienstleistungen ohne Hindernisse in allen EU-Mitgliedstaaten anbieten können. Der Abbau bürokratischer Hürden und die Harmonisierung der nationalen Vorschriften sind dabei entscheidend.
  3. Infrastruktur: Investitionen in digitale Infrastruktur und Rechenkapazität. Um wettbewerbsfähig zu bleiben, muss die EU in modernste digitale Infrastrukturen investieren. Dies umfasst den Ausbau von Hochgeschwindigkeitsinternet, die Schaffung von Rechenzentren und die Förderung von Technologien wie 5G und Quantencomputing. Eine robuste Infrastruktur ist die Grundlage für die Entwicklung und den Einsatz fortschrittlicher KI-Anwendungen.
  4. Exzellenzökosystem: Förderung von KI-Talenten und Forschung. Die EU muss ihre Bemühungen verstärken, Talente im Bereich KI zu fördern und zu halten. Dies beinhaltet Investitionen in Bildung und Forschung sowie die Schaffung attraktiver Arbeitsbedingungen für hochqualifizierte Fachkräfte. Durch die Unterstützung von Universitäten und Forschungseinrichtungen kann die EU eine führende Rolle in der globalen KI-Forschung einnehmen.
  5. Vertrauensökosystem: Aufbau eines sicheren und verlässlichen e-Governance-Systems. Vertrauen ist ein zentraler Faktor für die Akzeptanz von KI. Die EU muss daher ein zuverlässiges und sicheres System für die elektronische Verwaltung und Gesundheitsdienste aufbauen. Dies beinhaltet den Schutz der Privatsphäre und die Sicherheit persönlicher Daten, um das Vertrauen der Bürger in digitale Dienstleistungen zu stärken.
  6. Industriestrategie: Strategische Planung und Unterstützung für KMUs und Start-ups. Kleine und mittlere Unternehmen (KMUs) sowie Start-ups spielen eine entscheidende Rolle in der Innovationslandschaft. Die EU sollte gezielte Programme und Fördermaßnahmen einführen, um diese Unternehmen zu unterstützen und ihnen den Zugang zu Finanzierung und Märkten zu erleichtern. Eine starke Industriestrategie hilft, die Wettbewerbsfähigkeit zu steigern und die Innovationskraft zu fördern.
  7. Sicherheitsstrategie: Ausgewogene Nutzung von KI in der Strafverfolgung und Verteidigung. KI kann eine wichtige Rolle bei der Verbesserung der öffentlichen Sicherheit und Verteidigung spielen. Es ist jedoch wichtig, dass der Einsatz von KI in diesen Bereichen sorgfältig geregelt wird, um Missbrauch zu verhindern und die Rechte der Bürger zu schützen. Eine ausgewogene Sicherheitsstrategie kann dazu beitragen, Bedrohungen wie Cyberangriffe effektiv zu bekämpfen und gleichzeitig die ethischen Grundsätze zu wahren.

Holistischer Ansatz und geteilte Verantwortung

Ein besonderes Augenmerk liegt auf den general-purpose AI (GPAI) Modellen, die als essentielle Bausteine in vielen Anwendungsbereichen dienen. Hier sind zusätzliche Verpflichtungen notwendig, um ihre sichere und verständliche Integration in spezifische KI-Systeme zu gewährleisten. GPAI-Modelle, wie die von großen Tech-Unternehmen entwickelten, erfordern klare Regelungen, um sicherzustellen, dass sie verantwortungsvoll genutzt werden und keine unvorhergesehenen Risiken bergen.


Internationale Zusammenarbeit und Zukunftsaussichten

Die USA und China verfolgen unterschiedliche Ansätze in der KI-Entwicklung. Während die USA stark auf private Innovationen setzen, betrachtet China KI als Schlüsselfaktor im globalen Technologiewettlauf. Die EU hingegen strebt an, ihre eigenen Werte und Prinzipien in der KI-Regulierung zu wahren und globale Standards zu setzen.

Zukunftsweisende Schritte

Die Implementierung des AI Acts erfordert kontinuierliche Anpassungen und internationale Kooperationen, um die Wettbewerbsfähigkeit der EU zu sichern und gleichzeitig hohe ethische Standards zu halten. Dies bedeutet, dass die EU eng mit internationalen Partnern zusammenarbeitet, um gemeinsame Standards zu entwickeln und sicherzustellen, dass KI-Technologien global verantwortungsvoll eingesetzt werden.


Fazit

Die Einführung des AI Acts ist ein entscheidender Schritt, um die digitale Wettbewerbsfähigkeit der EU zu stärken und gleichzeitig den Schutz der Grundrechte zu gewährleisten. Die Herausforderungen sind groß, aber die Chancen, die sich aus einer gut regulierten KI-Landschaft ergeben, sind immens. Erleben Sie hautnah, wie die Zukunft der KI gestaltet wird und welche Rolle Sie dabei spielen können. Nehmen Sie an unserer Tagung teil, diskutieren Sie mit Experten und gestalten Sie die digitale Zukunft der EU mit. Buchen Sie jetzt Ihren Platz und seien Sie Teil dieser wichtigen Debatte!

Hier klicken, um Ihre Teilnahme zu sichern

Alle Informationen zum Vortrag am 05.11.2024 auf der IDACON

Die KI-Regulierung und ihre rechtlichen und wirtschaftlichen Folgen
  • Regulierung von KI
  • Bewertung der KI-Regulierung
  • Verhältnis zu anderen Regulierungen
  • Folgen für die EU-Wettbewerbsfähigkeit

Der Autor

Kai Zenner

Head of Office & Digital Policy Adviser
Kai Zenner ist Büroleiter und Digitalpolitikberater des Europaabgeordneten Axel Voss (Fraktion der Europäischen Volkspartei) im Europäischen Parlament. Er beschreibt sich selbst als digitalen Enthusiasten und konzentriert sich auf KI, Daten und den digitalen Wandel der EU. Derzeit ist er an den politischen Verhandlungen zum KI-Gesetz, zur KI-Haftungsrichtlinie, zur Datenschutzverordnung und zur DSGVO-Revision beteiligt.

Share

Der AI Act und die digitale Wettbewerbsfähigkeit der EU: Chancen, Herausforderungen und die Zukunft der Künstlichen Intelligenz