5. Februar 2025
  WEITERE NEWS
Aktuelles aus
L
ibrary
Essentials

In der Ausgabe 10-2024/1-2025 (Dez. 2024/Jan. 2025) lesen Sie u.a.:

  • Open Investing in wissenschaftlichen Bibliotheken
  • Forschungsdaten gemeinsam gestalten: das Stabi Lab in Berlin
  • Die EU-KI-Verordnung: wegweisende Regeln für vertrauenswürdige Künstliche Intelligenz
  • Ein Balanceakt: ethisches Dilemma der KI in der Hochschulbildung
  • Ungenutztes Potenzial oder riskanter Trend? Verdeckte KI-Nutzung in wissenschaftlichen Veröffentlichungen
  • Warum die Indizierung von zurückgezogenen Publikationen zum Problem wird
  • Klassische Medien auf dem Abstellgleis bei Jugendlichen
  • Warum Gen Z kaum noch Bücher liest
  • Zwischen Sichtbarkeit und Bedeutung: die Rolle der digitalen Kuratierung bei OpenScience während der Pandemie
  • USA: Wissenschaftliche Bibliothekare organisieren sich gegen drohende Kürzungen und den Abbau öffentlicher Bildung unter der kommenden Trump-Administration
  • Makerspaces: kreative Lernräume in wissenschaftlichen Bibliotheken
  • Wie KI antike Texte lesbar macht
  • Fachzeitschriften von Massenrücktritten der Redaktionen betroffen
u.v.m.
  fachbuchjournal

Bitkom zur EU-Haftungsrichtlinie für den Einsatz von KI

Die EU-Kommission veröffentlicht am 28.09.2022e einen Entwurf zur Haftungsrichtlinie zu Künstlicher Intelligenz (AI Liability Directive), die den Haftungsfall im Umgang mit Künstlicher Intelligenz regelt. Dazu erklärt Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung:

„Wir begrüßen, dass mit dem Entwurf zur KI-Haftungsrichtlinie erste grundsätzliche Fragen zur Haftung im Schadensfall beim Einsatz von KI geregelt werden sollen. Künstliche Intelligenz ist für die deutsche Wirtschaft eine herausragend wichtige Zukunftstechnologie. Die große Mehrheit der Unternehmen (65 Prozent) sieht den Einsatz von KI als Chance für das eigene Geschäft – aber nur neun Prozent nutzen KI bisher. Um den KI-Einsatz in Deutschland voranzubringen, muss möglichst schnell Rechtsklarheit beim Praxiseinsatz geschaffen werden.

Indem sich die KI-Haftungsrichtlinie auf die relevanten Definitionen aus der KI-Verordnung (AI Act) bezieht, wird Konsistenz sichergestellt und rechtliche Unsicherheiten werden vermieden. Des Weiteren ist für den KI-Standort Europa wichtig, dass die Richtlinie KI-Systeme nicht generell als Gefahrenquelle mit besonders hohen Risiken für Leben und Gesundheit einstuft und entsprechend auch keine verschuldensunabhängige Haftung für Hersteller oder Betreiber eines KI-Systems vorsieht. Das gibt Herstellern oder Betreibern von KI-Systemen die Möglichkeit, durch verantwortliches Handeln ihr Haftungsrisiko zu begrenzen. Wir begrüßen, dass im Fall einer gerichtlich angeordneten Offenlegung von Daten oder Prozessen auch die berechtigten Interessen der Hersteller wie etwa der Schutz von Geschäftsgeheimnissen berücksichtigt werden.

Kritischer beurteilen wir die nach dem Entwurf vorgesehene Beweislastumkehr: Kann nicht eindeutig festgestellt werden, ob der entstandene Schaden kausal mit einer Pflichtverletzung des Herstellers oder Betreibers zusammenhängt, wird zunächst bei diesem das Verschulden vermutet – diese Vermutung muss der Hersteller oder Betreiber dann selbst widerlegen, indem er ‚andere plausible Erklärungen‘ nachweist. Was darunter konkret zu verstehen ist, lässt der Entwurf bisher offen. An dieser Stelle brauchen wir Klarheit.“