Der EU AI Act: Das solltest Du über den Umgang mit Künstlicher Intelligenz wissen

Mitte 2024 hat die Europäische Union eine neue Gesetzgebung zur Künstlichen Intelligenz (KI) eingeführt. Der European Union Artificial Intelligence Act (EU AI Act) ist die erste umfassende KI-Verordnung einer großen Regulierungsbehörde überhaupt und legt damit den Grundstein für die Regulierung von KI in den Mitgliedstaaten der EU. Die Verordnung stellt eine entscheidende regulatorische Maßnahme für Unternehmen dar, die Künstliche Intelligenz nutzen oder entwickeln. Das Regelwerk legt klare Anforderungen und Klassifizierungen für KI-Systeme fest, insbesondere für hochriskante Anwendungen, und bietet Unternehmen die Möglichkeit, durch Compliance Wettbewerbsvorteile zu erlangen. Dieser Artikel beleuchtet die zentralen Inhalte des EU AI Act sowie konkrete Handlungsempfehlungen, damit Dein Unternehmen nicht nur gesetzeskonform agiert, sondern auch von den Möglichkeiten der Künstlichen Intelligenz profitiert.

Das erwartet Dich in diesem Artikel

Definition von Künstlicher Intelligenz im EU AI Act

Der EU AI Act definiert KI als Software, die durch maschinelles Lernen, logik- und wissensbasierte Ansätze oder statistische Methoden entwickelt wird und eigenständige Entscheidungen treffen kann. Diese breite Definition stellt sicher, dass alle relevanten Technologien abgedeckt sind und bietet gleichzeitig die Flexibilität, zukünftige Entwicklungen zu berücksichtigen. Dies schließt eine Vielzahl von Technologien ein, wie:

Neuronale Netzwerke

Systeme, die das menschliche Gehirn nachahmen, um komplexe Probleme zu lösen. Diese Netzwerke sind besonders effektiv in Bereichen wie Bildverarbeitung und Natural Language Processing.

Maschinelles Lernen (ML)

Algorithmen, die aus Daten lernen und Muster erkennen. ML ist ein zentraler Bestandteil vieler moderner KI-Anwendungen, von Bild- und Spracherkennung bis hin zu prädiktiven Analysen.

Natural Language Processing (NLP)

Technologien, die natürliche Sprache verstehen und verarbeiten können. NLP ist entscheidend für Anwendungen wie Chatbots, Übersetzungsdienste und Sprachassistenten.

Regelbasierte Systeme

Systeme, die auf vordefinierten Regeln und Logik basieren. Diese Ansätze werden oft in Expertensystemen und zur Automatisierung von Entscheidungsprozessen verwendet.

Mit dem European Union Artificial Intelligence Act (EU AI Act) wird in Europa Künstliche Intelligenz reguliert. Warum braucht es ein Regelwerk für diese Technologie? 

Diese gesetzliche Regelung ist nicht nur ein Schritt zur Schaffung eines einheitlichen Rahmens für den Einsatz Künstlicher Intelligenz in Europa, sondern auch ein entscheidender Faktor für die zukünftige Wettbewerbsfähigkeit von Unternehmen. Die Implementierung von KI-Systemen bringt zahlreiche Chancen mit sich, birgt jedoch auch Risiken, die durch klare Vorgaben und Standards adressiert werden müssen. In diesem Kontext ist ein solches Regelwerk von zentraler Bedeutung, um eine vertrauenswürdige, sichere und ethische Entwicklung und Nutzung von KI sicherzustellen. Der EU AI Act sorgt dafür, dass der Schutz von Grundrechten, eine ethische Verantwortung, die Vermeidung von Missbrauch und Schäden, eine Förderung von Innovation sowie der Verbraucher- und Anwenderschutz sichergestellt werden. Unternehmen, die sich frühzeitig mit den Implikationen dieses Gesetzes auseinandersetzen, können nicht nur rechtliche Probleme vermeiden, sondern sich auch eine Vorreiterrolle einnehmen, indem sie ihre Innovationskraft stärken und das Vertrauen ihrer Kunden gewinnen.

Relevanz des Gesetzes

Die Relevanz des EU AI Act zeigt sich insbesondere in seiner Zielsetzung, einen sicheren und vertrauenswürdigen Umgang mit Künstlicher Intelligenz zu gewährleisten. Durch klare Regeln und Richtlinien wird es Unternehmen ermöglicht, KI verantwortungsvoll zu nutzen, ohne dabei die Rechte der Nutzer zu gefährden. Das Regelwerk legt fest, wie KI-Systeme klassifiziert werden und welche Anforderungen an sie gestellt werden müssen. Dies betrifft insbesondere hochriskante Anwendungen, die strengen Vorgaben unterliegen. Die Einhaltung dieser Vorschriften ist nicht nur eine rechtliche Notwendigkeit, sondern auch eine Chance zur Verbesserung der eigenen Prozesse und Produkte

Zielgruppen des Gesetzes

Jedes Unternehmen, das KI-Technologien in irgendeiner Form nutzt – sei es zur Automatisierung von Prozessen oder zur Analyse von Daten – muss die Bestimmungen des EU AI Act berücksichtigen. Die Einstufung als betroffenes Unternehmen erfolgt dabei nicht nur aufgrund der Branche, sondern auch anhand spezifischer Kriterien wie dem Risiko des eingesetzten KI-Systems. So sind beispielsweise Unternehmen im Gesundheitssektor besonders gefordert, da hier hohe Risiken für die Sicherheit und das Wohlbefinden der Nutzer bestehen können.

Wie berücksichtigt der EU AI Act Anwendungen, die mehr oder weniger KI enthalten? Gibt es in der Regulierung Abstufungen?

Ein zentrales Element des EU AI Act ist die Klassifizierung von KI-Systemen in verschiedene Risikokategorien, welche die Art und den Umfang der regulatorischen Anforderungen bestimmt. Diese risikobasierte Abstufung ermöglicht, dass höhere Anforderungen an Systeme gestellt werden, die potenziell gefährlich sind, während einfachere KI-Anwendungen leichter reguliert werden können. 

Welche Kategorien von KI-Systemen werden durch den EU AI Act reguliert?

Das Regelwerk definiert vier Risikostufen, um KI-Systeme zu kategorisieren: inakzeptable, hochriskante, moderate und minimal riskante KI-Anwendungen.

Grafik über die Risikokategorien des EU AI Act
  • Inakzeptable Risiken

    Inakzeptable Risiken beziehen sich auf alle KI-Systeme, die als klare Bedrohung für die Sicherheit, den Lebensunterhalt und die Rechte der Menschen gelten, und sind verboten. Darunter fallen beispielsweise soziale Bewertungssysteme wie Sozialkreditsysteme durch Regierungen (Social Scoring) oder manipulative KI wie Spielzeuge mit Sprachassistenten, die zu gefährlichem Verhalten ermutigen.

  • Hochriskante Systeme

    Hochriskante Systeme sind solche, die potenziell erhebliche Auswirkungen auf Sicherheit und Rechte haben können. Zu den als risikoreich eingestuften KI-Systemen gehört die Technologie, die in folgenden Bereichen eingesetzt wird:

    • Kritische Infrastrukturen (z. B. Verkehr), die das Leben und die Gesundheit der Bürger gefährden könnten
    • Schulische oder berufliche Ausbildung, die über den Zugang zu Bildung und den beruflichen Werdegang einer Person entscheiden kann (z. B. Bewertung von Prüfungen)
    • Sicherheitskomponenten von Produkten (z. B. KI-Anwendung in der roboterassistierten Chirurgie)
    • Beschäftigung, Verwaltung von Arbeitnehmern und Zugang zur Selbstständigkeit (z. B. Software zur Lebenslaufsortierung für Einstellungsverfahren)
    • wesentliche private und öffentliche Dienstleistungen (z. B. Kredit-Scoring, das Bürgern die Möglichkeit verwehrt, einen Kredit zu erhalten)
    • Strafverfolgung, die in die Grundrechte der Menschen eingreifen kann (z. B. Bewertung der Zuverlässigkeit von Beweismitteln)
    • Migrations-, Asyl- und Grenzkontrollmanagement (z. B. automatisierte Prüfung von Visumanträgen)
    • Rechtspflege und demokratische Prozesse (z. B. KI-Lösungen zur Suche nach Gerichtsurteilen)

    Für diese Systeme gelten strenge Anforderungen an Transparenz, Sicherheit und Dokumentation. Unternehmen müssen sicherstellen, dass diese Systeme regelmäßig überwacht und bewertet werden, um Risiken frühzeitig zu erkennen und zu minimieren.

  • Moderate Risiken

    Moderate Risiken beziehen sich auf Anwendungen, die weniger gravierende Auswirkungen haben, aber dennoch reguliert werden müssen. Beispielsweise muss bei der Nutzung von KI-Systemen wie Chatbots klar sein, dass es sich um eine Interaktion mit einer Maschine handelt, sodass Nutzerinnen und Nutzer eine fundierte Entscheidung treffen können, ob sie fortfahren oder aufhören. Anbieter müssen außerdem sicherstellen, dass KI-generierte Inhalte identifizierbar sind. Darüber hinaus müssen KI-generierte Texte, die mit dem Ziel veröffentlicht werden, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, als künstlich generiert gekennzeichnet werden. Dies gilt auch für Audio- und Videoinhalte, bei denen es sich um Deep Fakes handelt. Die Anforderungen an diese Systeme sind weniger streng, dennoch müssen Unternehmen auch hier bestimmte Sicherheits- und Transparenzstandards wie eine Kennzeichnungspflicht einhalten.

  • Minimal riskante Systeme

    Minimal riskante Systeme sind solche, die kaum Auswirkungen auf das Wohlbefinden oder die Sicherheit von Nutzerinnen und Nutzer haben. Dazu gehören Anwendungen wie KI-gestützte Videospiele oder Spamfilter. Die überwiegende Mehrheit der derzeit in der EU verwendeten KI-Systeme fällt in diese Kategorie. Diese Systeme unterliegen den geringsten regulatorischen Anforderungen. Unternehmen sollten jedoch auch bei diesen Anwendungen darauf achten, dass sie ethische Grundsätze wahren und eine verantwortungsvolle Nutzung sicherstellen.

Welche Hauptziele verfolgt der EU AI Act, und wie unterscheidet er sich von anderen internationalen Ansätzen zur Regulierung der Künstlichen Intelligenz?

Mit dem risikobasierten Ansatz verfolgt das Gesetz das Ziel, innerhalb der EU einen einheitlichen Rechtsrahmen für die Nutzung von Künstlicher Intelligenz zu schaffen und schädliche Auswirkungen zu vermeiden.

Andere Länder wie das Vereinigte Königreich setzen auf einen sektorspezifischen Regulierungsansatz. Dabei wird nicht primär die Technologie an sich reguliert, sondern spezifische Anwendungsfälle, größtenteils durch Anpassung von bestehenden Gesetzen. Im Vergleich zu anderen internationalen Regelungen legt der EU AI Act einen viel stärker ausgeprägten Fokus auf die sozialen und ethischen Aspekte der KI-Nutzung, was ihn von anderen Regelwerken abhebt.

    Die Hauptziele des EU AI Act sind:

    Schutz von Grundrechten

    Gewährleistung von Sicherheit und Transparenz in der Nutzung von KI-Technologien

    Förderung von Innovationen und Wettbewerb

    Anforderungen an KI-Systeme nach ihrer Klassifizierung

    Anforderungen an hochriskante KI-Systeme

    Für hochriskante KI-Systeme sieht der EU AI Act spezifische Verpflichtungen vor, die Unternehmen erfüllen müssen. Dazu gehört unter anderem die Durchführung einer Risikobewertung vor der Implementierung des Systems. Diese Bewertung muss dokumentiert werden und alle potenziellen Risiken sowie Maßnahmen zu deren Minderung umfassen. Zudem ist es erforderlich, dass Unternehmen ein Qualitätsmanagementsystem etablieren, um sicherzustellen, dass ihre KI-Anwendungen den festgelegten Standards entsprechen.

    Ein weiterer wichtiger Aspekt ist die Transparenzpflicht: Nutzer müssen über die Funktionsweise des KI-Systems informiert werden. Dies umfasst sowohl technische Informationen als auch Erläuterungen zur Entscheidungsfindung des Systems. Unternehmen sollten klare Kommunikationsstrategien entwickeln, um diese Informationen verständlich und zugänglich zu machen.

    Darüber hinaus müssen hochriskante KI-Systeme regelmäßig überprüft und validiert werden. Dies bedeutet, dass Unternehmen geeignete Verfahren implementieren sollten, um die Leistung und Sicherheit ihrer Systeme kontinuierlich zu gewährleisten. Die Dokumentation dieser Überprüfungen ist ebenfalls von großer Bedeutung, da sie als Nachweis für die Einhaltung der gesetzlichen Vorgaben dient.

    Anforderungen an moderate und minimal riskante KI-Systeme

    Obwohl moderate und minimal riskante Systeme weniger strengen Anforderungen unterliegen, gibt es dennoch wichtige Regelungen, die Unternehmen beachten sollten. Für moderate Risiken ist es entscheidend, dass Unternehmen sicherstellen, dass ihre KI-Anwendungen transparent sind und keine diskriminierenden Ergebnisse produzieren. Auch hier sollten regelmäßige Bewertungen durchgeführt werden, um sicherzustellen, dass die Systeme weiterhin den gesetzlichen Vorgaben entsprechen.

    Bei minimal riskanten Systemen empfiehlt es sich, eine dokumentierte Strategie zur ethischen Nutzung von Künstlicher Intelligenz zu entwickeln. Auch wenn diese Systeme nicht den gleichen regulatorischen Druck erfahren wie hochriskante Anwendungen, ist es wichtig, ein Bewusstsein für mögliche ethische Fragestellungen zu schaffen und proaktive Maßnahmen zur Vermeidung von Missbrauch zu ergreifen.

    Insgesamt ist es unerlässlich, dass Unternehmen sich mit den spezifischen Anforderungen des EU AI Act auseinandersetzen und diese in ihre Geschäftsprozesse integrieren. Die frühzeitige Identifizierung der Risikoklassifizierung ihrer KI-Systeme ermöglicht es ihnen nicht nur, Compliance-Risiken zu minimieren, sondern auch das Vertrauen ihrer Kunden und ihre Wettbewerbsfähigkeit zu stärken. Die nächste Herausforderung für viele Unternehmen wird sein, die Pflichten des EU AI Act in ihre bestehenden Prozesse zu integrieren und gleichzeitig eine transparente Kommunikation über ihre KI-Anwendungen sicherzustellen.

    Welche speziellen Anforderungen und Vorschriften gelten für generative KI-Systeme unter dem EU AI Act?

    Generative KI-Systeme, die Texte, Bilder oder andere kreative Inhalte erzeugen, müssen klaren Transparenzpflichten gerecht werden. Anbieter müssen sicherstellen, dass Nutzerinnen und Nutzer über die Funktionsweise und die potenziellen Risiken der Anwendung informiert werden. Zudem müssen solche Systeme regelmäßig auf ihre Integrität und ethischen Implikationen überprüft werden.

    Diese Anforderungen sollen sicherstellen, dass generative KI-Systeme verantwortungsbewusst entwickelt und eingesetzt werden, um das Vertrauen der Öffentlichkeit zu stärken und potenzielle Risiken zu minimieren:

    • Transparenzpflichten

      • Kennzeichnungspflicht: Generative KI-Systeme müssen klarstellen, dass die von ihnen erzeugten Inhalte (z. B. Texte, Bilder, Videos) künstlich generiert sind, um Täuschung und Missbrauch zu verhindern.
    • Datenqualität und -Governance

      • Hochwertige Datensätze: Die zum Training verwendeten Daten müssen von hoher Qualität sein, um Verzerrungen (Bias) zu minimieren und diskriminierende Ergebnisse zu vermeiden.
      • Dokumentation der Datenquellen: Anbieter müssen die Herkunft und Beschaffenheit der Trainingsdaten dokumentieren, um Transparenz und Nachvollziehbarkeit zu gewährleisten.
    • Risikobewertung und -management

      • Systematische Evaluierung: Anbieter generativer KI-Systeme sind verpflichtet, potenzielle Risiken für Gesundheit, Sicherheit und Grundrechte zu identifizieren und entsprechende Maßnahmen zu deren Minderung zu implementieren.
    • Technische Dokumentation

      • Umfassende Unterlagen: Es müssen detaillierte technische Dokumentationen bereitgestellt werden, die Informationen über Design, Entwicklung, Verwendungszweck und Funktionsweise des KI-Systems enthalten.
    • Überwachung und Berichterstattung

      • Kontinuierliche Überprüfung: Anbieter sind verpflichtet, ihre KI-Systeme regelmäßig zu überwachen und der zuständigen Behörde über die Einhaltung der Vorschriften Bericht zu erstatten.

    Die Implementierung des EU AI Act hat weitreichende Auswirkungen auf Unternehmen und ihre KI-Anwendungen. Aber wie genau beeinflusst diese Gesetzgebung ihr Geschäft?

    Für Unternehmen bedeutet der EU AI Act, dass sie ihre KI-Anwendungen regelmäßig überprüfen müssen, um sicherzustellen, dass sie die Anforderungen des neuen Gesetzes erfüllen. Dies kann sowohl Investitionen in neue Technologien als auch in Schulungen für Mitarbeitende bedeuten. Der Fokus auf Transparenz und einen ethischen Umgang mit Daten könnte zugleich neue Geschäftsmöglichkeiten schaffen, da Verbraucher zunehmend Unternehmen bevorzugen, die verantwortungsvoll mit Künstlicher Intelligenz umgehen.

    • Compliance Anforderungen und Dokumentationspflichten

      Unternehmen müssen sicherstellen und dokumentieren, dass ihre KI-Systeme den neuen Sicherheits- und Transparenzpflichten entsprechen. Dazu müssen sie ihre KI-Systeme entsprechend der Klassifikation (z. B. Hochrisiko) einstufen und regelmäßige Audits durchführen sowie detaillierte Berichte und Nachweise über die Entwicklung und die Nutzung der Systeme vorlegen. Außerdem erfordert es möglicherweise erhebliche Anpassungen in der Entwicklung und Implementierung von KI-Technologien, um konform zu sein.

    • Risikobewertung und Management

      Unternehmen müssen ein effektives Risikomanagement etablieren, um die potenziellen Risiken ihrer KI-Anwendungen zu bewerten und diese zu minimieren. Dies hilft, potenzielle Gefahren frühzeitig zu erkennen und zu beheben.

    • Vertrauensaufbau

      Erhöhte Anforderungen an den Schutz der Verbraucherrechte bedeuten, dass KI-Anwendungen fair, transparent und nicht diskriminierend sein müssen. Dies stärkt das Vertrauen der Nutzer und fördert die Akzeptanz neuer Technologien.

    • Innovationen und Wettbewerb

      Während die Einhaltung der Vorschriften zunächst als Hürde erscheinen mag, kann sie auch als Anreiz für die Entwicklung innovativer und wettbewerbsfähiger KI-Lösungen dienen. Unternehmen, die sich frühzeitig anpassen, können sich als Vorreiter positionieren und durch hochwertige und regelkonforme KI-Systeme von der Konkurrenz abheben.

    • Finanzielle Auswirkungen

      Gegebenenfalls müssen Unternehmen in technische, rechtliche und organisatorische Maßnahmen investieren, um die Vorschriften einzuhalten. So sind auch Schulungsprogramme für Mitarbeitende sinnvoll, um ein Verständnis für die neuen Richtlinien und deren Umsetzung zu schaffen. Dies kann die Betriebskosten erhöhen, aber zugleich die Qualität und Sicherheit der KI-Anwendungen verbessern. Verstöße gegen den EU AI Act können erhebliche Geldbußen nach sich ziehen.

    • Haftung und rechtliche Verantwortung

      Mit dem EU AI Act gehen auch festgelegte Haftungsbedingungen einher. Unternehmen müssen sich bewusst sein, dass sie für die Entscheidungen und Handlungen ihrer KI-Systeme verantwortlich sind. Das bedeutet, dass eine unsachgemäße Implementierung oder ein unzureichendes Risikomanagement rechtliche Risiken mit sich bringen kann.

    Die Einhaltung der Vorschriften des EU AI Act erfordert von Unternehmen eine umfassende Auseinandersetzung mit ihren Pflichten in Bezug auf Dokumentation und Transparenz. Zusammenfassend lässt sich sagen, dass der EU AI Act sowohl Herausforderungen als auch Chancen für Unternehmen mit sich bringt. Durch eine proaktive Herangehensweise an die Umsetzung der Regelungen können Unternehmen ihre Wettbewerbsfähigkeit steigern und gleichzeitig das Vertrauen der Nutzerinnen und Nutzer in ihre KI-Anwendungen fördern.

    Welche Unternehmen und Akteure fallen unter die Regulierung des EU AI Acts?

    Der EU AI Act betrifft nicht nur Unternehmen innerhalb der EU, sondern erstreckt sich auch auf internationale Akteure, die Produkte oder Dienstleistungen innerhalb des europäischen Marktes anbieten. So wird ein staatenübergreifendes Regelwerk geschaffen, welches Sicherheit und Transparenz im Einsatz Künstlicher Intelligenz fördert.

    Der EU AI Act hat eine breite Reichweite und betrifft verschiedene Akteure entlang der gesamten Wertschöpfungskette von KI-Systemen:

    Nutzer von KI-Systemen:

    Unternehmen, die KI-Systeme in ihren Geschäftsprozessen oder Produkten einsetzen (z. B. in der Industrie, Gesundheitswesen, öffentlicher Verwaltung). Sie müssen sicherstellen, dass sie KI-Systeme konform nutzen und Risiken minimieren.

    Entwickler von KI-Systemen (Hersteller):

    Unternehmen oder Organisationen, die KI-Systeme entwickeln, designen oder vermarkten. Besonders betroffen sind Anbieter von Hochrisiko- oder generativen KI-Systemen.

    Integratoren und Betreiber:

    Organisationen, die KI-Systeme in bestehende Anwendungen integrieren oder diese für Endnutzer bereitstellen. Sie müssen Transparenz und Sicherheit gewährleisten, insbesondere bei Hochrisiko-Systemen.

    Vertreiber und Importeure:

    Akteure, die KI-Systeme in die EU importieren oder innerhalb der EU vertreiben, müssen sicherstellen, dass die Systeme die regulatorischen Anforderungen erfüllen.

    Drittstaaten-Unternehmen:

    Unternehmen außerhalb der EU, die KI-Systeme innerhalb des EU-Marktes bereitstellen oder nutzen, fallen ebenfalls unter die Regulierung.

    Schütze Deine Daten bei der Nutzung von KI

    Neben den zahlreichen Vorzügen bringt der Einsatz von KI in Unternehmen jedoch auch wichtige Überlegungen in Bezug auf Datenschutz und Compliance mit sich. Sobald Daten in der Eingabemaske von Chatbots wie ChatGPT landen, greift dieser darauf zu und kann damit Geschäftsgeheimnisse preisgeben. Wie man von den Vorteilen eines Chatbots profitieren und gleichzeitig sensible Unternehmensdaten schützen kann, erfährst Du in unserem kostenfreien Webinar.

      Die Implementierung des EU AI Act variiert je nach Branche und den spezifischen Anforderungen und Risiken, die mit der Nutzung von KI verbunden sind. Aber wie sieht diese Implementierung beispielhaft in verschiedenen Sektoren aus?

      Die Implementierung des EU AI Act ist sektorspezifisch und passt sich den jeweiligen Risiken und Verwendungszwecken der KI-Systeme an. Beispielsweise müssen Unternehmen im Gesundheitswesen sicherstellen, dass ihre KI-Systeme nicht nur effektiv, sondern auch sicher sind und den Datenschutz der Patienten garantieren. In der Finanzbranche wird der Einsatz von Künstlicher Intelligenz zur Verhinderung von Betrug und zur Risikoanalyse strenger reguliert. Dabei steht der Schutz von Verbrauchern, Transparenz und die Vermeidung von Diskriminierung stets im Vordergrund. Die Bundesregierung und die Mitgliedstaaten stellen sogenannte EU AI Act Compliance Checker bereit, um Unternehmen bei der Einhaltung der Vorschriften zu unterstützen.

      Hier sind einige Beispiele für die Implementierung des Regelwerks in verschiedenen Bereichen:

      Gesundheitswesen

      Anforderungen:

      KI-Systeme, die zur Diagnose oder Behandlung eingesetzt werden, gelten als Hochrisiko-Systeme. Sie müssen strengen Sicherheits- und Qualitätsanforderungen entsprechen und unterliegen umfangreichen Prüfungen vor der Marktzulassung.

      Beispiel:

      Ein KI-basiertes System zur Erkennung von Tumoren in MRT-Scans muss transparent dokumentieren, wie die Algorithmen trainiert wurden, und sicherstellen, dass sie bei verschiedenen Patientengruppen zuverlässig funktionieren.

      Ziele:

      Minimierung von Fehldiagnosen und Verbesserung der Patientensicherheit.

      Finanzdienstleistungen

      Anforderungen:

      Systeme zur Kreditbewertung oder Betrugserkennung müssen sicherstellen, dass sie nicht diskriminierend wirken und ihre Entscheidungen transparent erklären können.

      Beispiel:

      Ein KI-System zur automatischen Kreditvergabe muss so programmiert werden, dass es keine Vorurteile gegenüber bestimmten Bevölkerungsgruppen beispielsweise auf Basis von Geschlecht oder Herkunft entwickelt.

      Ziele:

      Förderung fairer Praktiken und Schutz der Verbraucher vor unethischen Entscheidungen.

      Fertigungsindustrie

      Anforderungen:

      KI-Systeme zur Überwachung von Maschinen oder zur Prozessoptimierung müssen robust und manipulationssicher sein.

      Beispiel:

      Ein KI-System, das Produktionsfehler automatisch erkennt, muss den Nachweis erbringen, dass es auch unter extremen Betriebsbedingungen zuverlässig arbeitet.

      Ziele:

      Verbesserung der Effizienz und Reduktion von Fehlern, ohne die Sicherheit zu gefährden.

      Transport und Logistik

      Anforderungen:

      Autonome Fahrzeuge und KI-gestützte Verkehrssteuerungssysteme gelten als Hochrisiko-Systeme und erfordern umfassende Sicherheitsprüfungen.

      Beispiel:

      Ein autonomes Fahrsystem muss umfassend getestet werden, um sicherzustellen, dass es in komplexen Verkehrssituationen zuverlässig und sicher arbeitet.

      Ziele:

      Schutz von Passagieren, Fußgängern und anderen Verkehrsteilnehmern.

      Handel und E-Commerce

      Anforderungen:

      Personalisierte Empfehlungssysteme müssen sicherstellen, dass sie datenschutzkonform arbeiten und keine manipulativen Praktiken anwenden.

      Beispiel:

      Ein KI-basiertes System zur Produktempfehlung in einem Online-Shop muss den Datenschutz gewährleisten und erklären können, wie die Empfehlungen generiert werden.

      Ziele:

      Vertrauensbildung bei den Kunden und Förderung transparenter Geschäftsmodelle.

      Ist die Regulierung der Künstlichen Intelligenz durch den EU AI Act hinreichend? 

      Die Frage, ob die Regulierung durch den EU AI Act hinreichend ist, bleibt umstritten. Auch wenn der EU AI Act ein wichtiger erster Schritt ist, um den Umgang mit Künstlicher Intelligenz auf eine sichere, ethische und transparente Basis zu stellen, gibt es dennoch einige Stärken und Schwächen, die diskutiert werden:

      Stärken:

      • Risikobasierter Ansatz: Der EU AI Act adressiert Risiken abhängig von ihrem Einfluss auf Sicherheit und Grundrechte unterschiedlich stark und schafft so eine ausgewogene Regulierung.
      • Schutz von Grundrechten: Das Regelwerk schützt Benutzer vor Manipulation, Diskriminierung und anderen Gefahren durch KI-Systeme.
      • Marktharmonisierung: Einheitliche Regeln innerhalb der EU fördern Rechtssicherheit und Wettbewerbsgleichheit.
      • Globale Vorreiterrolle: Der EU AI Act setzt einen internationalen Standard für verantwortungsbewusste KI-Entwicklung.

      Schwächen und offene Fragen:

      • Komplexität und Umsetzbarkeit: Die Anforderungen, insbesondere für Hochrisiko-KI-Systeme, könnten kleine Unternehmen und Start-ups überfordern.
      • Technologische Dynamik: KI entwickelt sich sehr schnell. Es bleibt unklar, ob die Regulierung mit der Innovation Schritt halten kann.
      • Unzureichende Regelung von Low-Risk-KI: Systeme mit geringerem Risiko könnten ungehindert Schäden verursachen (z. B. durch algorithmische Verzerrungen), ohne dass spezifische Kontrollen vorgesehen sind.
      • Globale Reichweite: Die Regulierung gilt primär für den europäischen Markt. Unternehmen aus Drittstaaten könnten Schwierigkeiten haben, die Vorschriften zu erfüllen.

      Künstliche Intelligenz im Einklang mit menschlichen Werten: Der Weg zur Compliance

      Die Auseinandersetzung mit dem EU AI Act ist für Unternehmen, die Künstliche Intelligenz nutzen oder entwickeln, von entscheidender Bedeutung und eröffnet die Möglichkeit, verantwortungsbewusste und innovative Lösungen zu gestalten. Diese regulatorische Maßnahme stellt nicht nur sicher, die Rechte der Nutzerinnen und Nutzer zu respektieren und deren Sicherheit zu gewährleisten, sondern bietet auch die Chance, als Vorreiter in einer zunehmend digitalisierten und nachhaltigen Welt aufzutreten. 

      Eine enge Zusammenarbeit zwischen den verschiedenen Abteilungen in Unternehmen kann sicherstellen, dass alle relevanten Aspekte berücksichtigt und die Verbindung von digitaler Innovationen mit nachhaltigen Praktiken optimal genutzt werden. Die klare Klassifizierung von KI-Systemen in unterschiedliche Risikokategorien fordert dazu auf, interne Prozesse zu überdenken und transparent zu gestalten. Insbesondere für hochriskante Systeme sind umfassende Dokumentations- sowie Transparenzpflichten unerlässlich, um den Anforderungen des Gesetzes gerecht zu werden. 

      Wer die Herausforderungen annimmt und gleichzeitig den Fokus auf wirtschaftliche, ökologische und soziokulturelle Nachhaltigkeit legt, kann nicht nur gesetzeskonform agieren, sondern auch einen positiven Beitrag zur Gesellschaft leisten. Gemeinsam können wir die Zukunft der Künstlichen Intelligenz gestalten und sicherstellen, dass technologische Fortschritte im Einklang mit menschlichen Werten stehen.

      FAQ — Related Questions

      Das Regelwerk zielt darauf ab, einen einheitlichen Rechtsrahmen für den Einsatz Künstlicher Intelligenz innerhalb der Europäischen Union zu schaffen. Die Hauptpunkte umfassen die Klassifizierung von KI-Systemen in Risikokategorien (verboten, hoch, mittel und gering), spezifische Anforderungen an KI-Anwendungen, Transparenzpflichten, die Notwendigkeit von Risikomanagement und die Schaffung einer Aufsichtsbehörde zur Überwachung der Einhaltung der Vorschriften. Zudem sollen Unternehmen, die KI-Systeme entwickeln oder nutzen, klare Verantwortlichkeiten und Haftungsregeln einhalten.

      Unternehmen sollten zunächst eine Bestandsaufnahme ihrer bestehenden KI-Anwendungen durchführen und diese hinsichtlich der Risikokategorisierung bewerten. Es ist ratsam, interne Richtlinien zur Einhaltung der neuen Vorschriften zu entwickeln und Schulungen für Mitarbeitende anzubieten. Zudem sollten Unternehmen rechtzeitig rechtlichen Rat einholen und gegebenenfalls Anpassungen an ihren KI-Systemen vornehmen, um den Anforderungen des EU AI Act gerecht zu werden. Es kann hilfreich sein, den bereitgestellten Compliance Checker zur Unterstützung heranzuziehen.

      Am 01. August 2024 ist das EU-KI-Gesetz in Kraft getreten. Es folgt nun eine Umsetzungsfrist von zwei bis drei Jahren, da verschiedene Teile des Gesetzes zu unterschiedlichen Terminen in Kraft treten. In diesem Zusammenhang fördert die Kommission den KI-Pakt, um die Interessenträger bei der Vorbereitung auf die Umsetzung des Regelwerks zu unterstützen.

      Die Umsetzungszeitleiste bietet einen Überblick über alle wichtigen Termine zur Umsetzung des Gesetzes:

      • Februar 2025: Verbotene KI-Systeme müssen innerhalb von sechs Monaten nach Inkrafttreten des Gesetzes eingestellt werden.
      • Mai 2025: Innerhalb von neun Monaten nach Inkrafttreten des EU-AI Act müssen die Verhaltenskodizes fertiggestellt und veröffentlicht sein. Diese Kodizes bieten detaillierte Leitlinien und Best Practices zur Einhaltung der neuen Vorschriften und unterstützen Unternehmen dabei, ihre KI-Systeme sicher und ethisch korrekt zu betreiben.
      • August 2025: Für allgemeine zweckgebundene KI-Systeme (GPAI, General Purpose AI) gilt eine Frist von zwölf Monaten.
      • August 2026: KI-Systeme mit hohem Risiko gemäß Anhang III müssen innerhalb von 24 Monaten konform sein.
      • August 2027: KI-Systeme mit hohem Risiko gemäß Anhang I haben eine Umsetzungsfrist von 36 Monaten.

      Der Einsatz verbotener KI-Praktiken kann gemäß Artikel 5 zu Geldbußen von bis zu 40 Millionen Euro oder 7 % des weltweiten Jahresumsatzes führen. Wer sich nicht an die Datenverwaltungsanforderungen, Informations- oder Transparenzpflichten hält, kann mit Bußgeldern von bis zu 20 Millionen Euro oder 4 % des weltweiten Umsatzes rechnen. Die Nichteinhaltung anderer Anforderungen oder Verpflichtungen kann zu Geldbußen von bis zu 10 Millionen Euro oder 2 % des weltweiten Umsatzes führen. Bei allen Sanktionen gilt, welcher Betrag höher ist. Die Geldbußen sind je nach verletzter Bestimmung gestaffelt, wobei verbotene Praktiken die höchsten Strafen nach sich ziehen und andere Verstöße mit niedrigeren Höchstgeldbußen belegt werden.

      Das könnte Dich auch interessieren

      Zwei Personen in einer Büroumgebung beugen sich über einen Laptop

      Vorteile von Data Analytics für Unternehmen

      Durch Datenintegration kannst Du die Effizienz und Effektivität der Datenverarbeitung in Deinem Unternehmen maximieren und gleichzeitig die Datenqualität gewährleisten. Hier findest Du Best Practices.
      Symbolbild für KI in Unternehmen: ein Mann blickt lächelnd auf einen Laptop

      Der Einsatz von Künstlicher Intelligenz in Unternehmen

      Lerne die wichtigsten KI-Technologien von Deep Learning bis RPA kennen und wie sie Unternehmen bei der Digitalisierung und Effizienzsteigerung unterstützen.
      Barrierefreie Webseiten

      Barrierefreie Webseiten

      ,
      Was bedeutet Barrierefreiheit im Kontext von Webseiten und (Web)Anwendungen? Unser Beitrag erklärt, wie Inhalte so gestaltet werden, dass alle Menschen diese uneingeschränkt nutzen können ⎼ auch wenn sie Einschränkungen beim Sehen, Hören, Bewegen oder Verarbeiten von Informationen haben.
      Matthias Wurdig, Director Data

      Matthias Wurdig
      Director Data & AI

      Unser Ansprechpartner beantwortet gerne offene Fragen

      Beschäftigst Du Dich mit dem Einsatz von Künstlicher Intelligenz im Unternehmen? Wenn Du Fragen hast oder Dich zu einem konkreten Thema austauschen möchtest, stehe ich Dir gerne zur Verfügung. Sende mir eine Mail oder buche Dir über meinen Kalender ein unverbindliches Gespräch.