KI Governance

Wie ist die KI von DeepSeek rechtlich zu beurteilen?

Die rechtliche Beurteilung der KI von DeepSeek hängt von verschiedenen Faktoren ab, darunter die spezifische Anwendung der KI, die rechtlichen Rahmenbedingungen des Landes oder der Region, in der sie eingesetzt wird, sowie die Einhaltung von Datenschutz- und Sicherheitsvorschriften. Hier sind einige Aspekte, die bei der rechtlichen Beurteilung relevant sein könnten: Zusammenfassend lässt sich sagen, dass […]

Wie ist die KI von DeepSeek rechtlich zu beurteilen? Weiterlesen »

Was muss bei AI Governance beachtet werden?

AI Governance umfasst die rechtlichen, ethischen und technischen Rahmenbedingungen für die Entwicklung, den Einsatz und die Kontrolle von Künstlicher Intelligenz (KI). Dabei sind insbesondere folgende Aspekte zu berücksichtigen: Insgesamt geht es bei AI Governance darum, ein Gleichgewicht zwischen Innovationsförderung und Risikominimierung herzustellen, um eine verantwortungsvolle und rechtssichere Nutzung von KI zu ermöglichen.

Was muss bei AI Governance beachtet werden? Weiterlesen »

Wie wird ein AI Inventory ablaufen?

Ein AI Inventory (KI-Inventar) dient dazu, alle künstliche Intelligenz (KI)-gestützten Systeme, Technologien und deren Komponenten innerhalb eines Unternehmens systematisch zu erfassen und zu dokumentieren. Rechtlich ist es von zentraler Bedeutung, um Compliance, Transparenz, Datenschutz und die Einhaltung von KI-spezifischen Regulierungen sicherzustellen. Ein solches Inventar ist insbesondere im Kontext des EU AI Act und branchenspezifischer Vorgaben

Wie wird ein AI Inventory ablaufen? Weiterlesen »

Ablauf eines KI-System-Audits am Beispiel einer Rekrutierungs-KI

Ein Unternehmen setzt eine KI ein, um Bewerbungen zu analysieren und geeignete Kandidaten für offene Stellen auszuwählen. Ziel des Audits ist es, sicherzustellen, dass das System korrekt arbeitet, keine Diskriminierung verursacht und rechtlich einwandfrei ist. 1. Vorbereitung und Zielsetzung Was passiert? Beispiel:Das Audit soll prüfen, ob die KI Kandidaten diskriminiert (z. B. wegen Geschlecht oder

Ablauf eines KI-System-Audits am Beispiel einer Rekrutierungs-KI Weiterlesen »

Haftung bei der Verwendung von Generativer KI

Generative KI, wie ChatGPT, Gemini oder ähnliche Systeme, stellt zahlreiche rechtliche Herausforderungen in Bezug auf die Haftung dar. Diese Haftungsfragen betreffen sowohl die Entwickler der KI, die Nutzer der generierten Inhalte als auch Drittparteien, die möglicherweise durch die Ergebnisse der KI betroffen sind. I. Grundlagen der Haftung bei Generativer KI 1. Haftungstypen 2. Beteiligte Parteien

Haftung bei der Verwendung von Generativer KI Weiterlesen »