body { font-family: 'Noto Sans', sans-serif; }
Wir helfen Ihnen, die Chancen von KI zu nutzen.
Künstliche Intelligenz (KI) ist die zentrale Technologie der Zukunft, die branchenübergreifend Effizienzsteigerungen, Innovation und Wettbewerbsvorteile ermöglicht.
Sie revolutioniert datenbasierte Analysen, automatisiert Entscheidungen, Prozesse, Erstellung und Verarbeitung von Inhalten, die bisher Menschen vorbehalten waren. KI verarbeitet und strukturiert enorme Datenmengen in Echtzeit, erkennt Muster und automatisiert repetitive Aufgaben. Prozesse werden beschleunigt, Ressourcen effizienter genutzt und Fehler reduziert.
Unternehmen können Situationen mit KI besser antizipieren, Risiken präziser einschätzen und Entscheidungen schneller, fundierter und zielsicherer treffen.
KI ermöglicht die Entwicklung völlig neuer Produkte, Dienstleistungen und Geschäftsmodelle.
Trotz aller Chancen sind bei KI auch komplexe Herausforderungen wie Rechtskonformität, Datenschutz, Datensicherheit, Transparenz, menschliche Aufsicht und Vermeidung von Diskriminierungen zu bewältigen.
Zahlreiche Gesetze wie AI-Act, DataAct, (AI-)Produkthaftungsrichtlinie etc. setzen einen sehr komplexen rechtlichen Rahmen.
PRICOM vereint Expertenwissen und Erfahrung für erstklassige KI-Beratung.
Unsere zertifizierten KI-Experten entwickeln mit Ihnen maßgeschneiderte Lösungen und beraten Sie verständlich und zielgerichtet.
Wir leisten umfassende Unterstützung für erfolgreiche Nutzung von KI-Systemen
Wir bewerten, ob die genutzten oder geplanten Anwendungen überhaupt „KI“ nach AI Act oder herkömmliche Software oder XaaS-Lösung sind.
Nicht alles, was als KI beworben wird, ist auch künstliche Intelligenz, für die die komplexen rechtlichen Anforderungen z.B. des AI-Acts gelten.
Wir kategorisieren zweifelsfrei ob die genutzten oder geplanten KI-Lösungen und deren Einsatzzweck verbotene KI, Hochrisiko-KI, General Purpose AI oder KI mit geringem Risiko sind.
Diese Kategorisierung nach Risikoklassen ist essentiell für die Nutzung von KI-Lösungen.
Nach best-practice Maßstäben
identifizieren wir konkret geltende Pflichten
aus dem AI-Act und anderen relevanten Gesetzen.
Wir beraten sie zielgerichtet und pragmatisch,
damit Sie alle Anforderungen kennen und erfüllen können.
Wir unterstützen Sie bei den ggf. nötigen
KI-Impact Assessments (Risikoabschätzungen)
auf systematische Prüfung konkret möglicher Risiken durch die KI-Nutzung.
Basierend darauf erarbeiten wir mit Ihnen geeignete Strategien zur Risikominimierung, rechtskonformen Konzeption und Nutzung.
Nutzer von KI-Systemen benötigen viele technische Informationen, um die rechtlichen Anforderungen (AI-Act) zu erfüllen.
Diese sind oft schwer zu beschaffen, da Anbieter von KI-Lösungen (LLMs, GPAI) zurückhaltend mit Details zu Technologie, Trainingsdaten, Sicherheit und Datenschutz sind.
Wir helfen Ihnen bei der Informationsbeschaffung, beraten Sie bei den Verhandlungen und unterstützen Sie bei Risikobewertungen sowie Compliance-Pflichten.
Wir unterstützen Sie beim Aufbau solider Governance-Strukturen für die Einführung und Anwendung von KI-Systemen.
Dazu gehören die Entwicklung von Richtlinien, Schulungen für Angestellte und Kontrollmaßnahmen, um die Einhaltung der Unternehmensrichtlinien und rechtlichen Vorgaben sicherzustellen.
Wir beantworten Ihre wichtigsten Fragen zu KI und dem AI-Act
Der AI-Act (KI-Verordnung (EU) 2024/1689) gehört zur Datenstrategie der EU für die “Digitale Dekade“ und legt als weltweit erstes umfassendes Gesetz zur Regulierung von künstlicher Intelligenz komplexe einheitliche Vorgaben für verantwortungsvolle und transparente Entwicklung und Nutzung von künstlicher Intelligenz in der Europäischen Union fest.
Der AI-Act legt detaillierte Verpflichtungen für alle Unternehmen fest, die KI entwickeln oder einsetzen, die Personen in der EU betrifft.
Bei Nichteinhaltung drohen Nutzungsverbote, Geldbußen in Höhe von bis zu EUR 35 Mio. oder 7% des weltweiten Jahresumsatzes, Klagen von Wettbewerbern oder Schadenersatzansprüche von Betroffenen.
Am 12. Juli 2024 wurde der AI Act im Amtsblatt der Europäischen Union veröffentlicht und ist am 1. August 2024 in Kraft getreten.
Für die Wirksamkeit der Vorschriften des AI-Act gelten je nach Risikoklasse der KI-Systeme unterschiedliche Übergangsfristen zwischen 6 und 36 Monaten nach Inkrafttreten.
Das Verbot der KI-Systeme mit unakzeptablen Risiken gilt bereits nach 6 Monaten, also schon ab dem 2. Februar 2025.
Die vielfältigen Pflichten nach Kapitel V für KI-Modelle mit allgemeinem Verwendungszweck (GPAI -General Purpose AI) und GPAI mit systemischen Risiken gelten nach 12 Monaten, also ab 02. August 2025. Das gilt auch für Regelungen zu Meldebehörden, Governance, Vertraulichkeit und Sanktionen.
24 Monate später, also ab 12. August 2026 finden die meisten übrigen Bestimmungen des AI-Gesetzes Anwendung.
Die Klassifizierungsregeln für KI-Systeme mit hohem Risiko nach Artikel 6 gelten nach 36 Monaten, also im August 2027.
Der AI-Act erfasst nach seiner Definition von KI-System „ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie operieren kann und nach dem Einsatz Anpassungsfähigkeit zeigen kann, und das für explizite oder implizite Ziele aus den Eingaben, die es erhält, ableitet, wie es Ergebnisse wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erzeugen kann, die physische oder virtuelle Umgebungen beeinflussen können“.
Das bedeutet, dass herkömmliche Software nicht unter den AI-Act fällt, wenn diese keine Fähigkeit besitzt, aus Daten zu lernen oder autonom (unterschiedliche) Entscheidungen zutreffen.
Herkömmliche Software basiert in der Regel auf festen Algorithmen die basierend auf klaren Vorgaben die gleichen Ergebnisse produzieren.
Die Abgrenzung zwischen vom AI-Act erfasster Software als „KI“ und herkömmlicher Software ist jedoch im Einzelfall schwierig, da der Gesetzestext zahlreiche unbestimmte Rechtsbegriffe enthält und eine falsche Einordnung schwerwiegende Konsequenzen wie Nutzungsverbote, hohe Strafen und Schadenersatzansprüche haben kann.
KI-Modelle mit allgemeinem Verwendungszweck“ oder „General Purpose AI“ (GPAI) sind Modelle, die für eine Vielzahl von Aufgaben und Anwendungsbereichen eingesetzt werden können, anstatt nur für eine spezifische, eng definierte Aufgabe optimiert zu sein. Diese Art von KI ist vielseitig, flexibel und skalierbar und kann daher in unterschiedlichen Kontexten eingesetzt werden, oft ohne signifikante Anpassungen oder Neuentwicklungen.
Diese Modelle können verschiedene Aufgaben ausführen, wie z.B. Textgenerierung, Bildverarbeitung, Spracherkennung, ohne dass sie für jedes spezifische Aufgabe neu trainiert werden müssen.
GPAI kann leicht an verschiedene Domänen oder Anwendungsbereiche angepasst werden.
Ein und dasselbe Modell kann z.B. sowohl in der Medizin als auch im Finanzwesen eingesetzt werden. Sie sind oft in der Lage, mit großen Mengen und verschiedenen Arten von Daten umzugehen, was sie besonders nützlich für Unternehmen macht, die vielfältige Datenquellen haben.
Bekannte Beispiele für solche GPAI-Modelle sind GPT-4, Microsoft Copilot, DALL-E, GoogleBERT oder Midjourney.
Der AI-Act klassifiziert KI-Systeme basierend auf ihrem Risiko für die Sicherheit, Gesundheit und Grundrechte von Menschen in folgende Kategorien:
Der AI-Act gilt für Anbieter, Nutzer, Importeure, Distributoren, Quasi Anbieter von KI-Modellen und KI-Systemen und deren Bevollmächtigte Vertreter in der EU.
Für die Entwicklung und Nutzung von Hochrisiko-KI-Systemen gelten künftig viele strenge Anforderungen, darunter:
Viele weitere konkrete Pflichten und Handlungsempfehlungen finden Sie in unseren Artikeln zum AI-Act:
https://www.linkedin.com/company/pricomNeben dem AI-Act müssen viele allgemeine und branchenspezifische rechtliche Vorgaben beachtet werden, wie die DSGVO, der Data Act und das Urheberrecht, insbesondere bei der Nutzung personenbezogener oder IoT-Daten und urheberrechtlich geschützter Werke.
Zudem müssen KI-Systeme je nach Risikoklasse und Einsatzzweck branchenspezifische Anforderungen an Genauigkeit, Robustheit und Cybersicherheit, wie etwa den Cyber Resilience Act (CRA), erfüllen.
Bei Nichteinhaltung drohen Nutzungsverbote, Geldbußen in Höhe von bis zu EUR 35 Mio. oder 7% des weltweiten Jahresumsatzes, Klagen von Wettbewerbern oder Schadenersatzansprüche von Betroffenen.
Nach Artikel 4 AI-Act müssen Betreiber müssen Anbieter und Betreiber von KI-Systemen ab 02. Februar 2025 sicherstellen, dass Benutzer (z.B. Angestellte) ausreichende KI-Kompetenz haben. Dies umfasst Verständnis der Funktionsweise und Auswirkungen von KI-Systemen sowie die Fähigkeit, KI-Ergebnisse angemessen interpretieren und verwenden können.
Unternehmen müssen ihr Personal entsprechend schulen.
Dabei sind technische Kenntnisse, Erfahrung, Ausbildung, der spezifische Einsatzzweck und die Endbenutzer zu berücksichtigen.
Wir erstellen und führen diese Trainings gerne für Sie durch, um eine optimale Qualifikation Ihres Teams zu gewährleisten.
1. Frühzeitige Beschäftigung mit den Regeln
2. Aufbau von internem Know-how durch Trainings und mit klaren Zuständigkeiten interdisziplinärer Teams
3. Bewertung von Chancen und Risiken
4. Einbindung externer Experten
5. Effektives Risikomanagement und interne Richtlinien
Viele weitere konkrete Maßnahmen und Empfehlungen finden Sie in unseren Artikeln zum AI-Act: