Coalition for Health AI: Eine vertrauenswürdige KI im Gesundheitswesen
Coalition for Health AI: Eine vertrauenswürdige KI im Gesundheitswesen

Coalition for Health AI: Eine vertrauenswürdige KI im Gesundheitswesen

Künstliche Intelligenz (KI) verändert das Gesundheitswesen. Sie hilft bei Diagnosen, Therapieplänen und der Organisation von Abläufen. Doch mit dieser Entwicklung steigen auch die Erwartungen: Die Systeme müssen sicher, fair und verständlich sein.

Hier setzt die Coalition for Health AI (CHAI) an. Diese gemeinnützige Organisation aus den USA wurde 2022 gegründet. Sie zählt heute über 3.000 Mitglieder, darunter bekannte Namen wie die Mayo Clinic, Duke Health, Stanford Medicine und das Mount Sinai Health System (CHAI, 2024).

Was macht CHAI?

CHAI hat ein Ziel: Standards schaffen, damit KI-Anwendungen im Gesundheitswesen zuverlässig und verantwortungsvoll arbeiten. Das betrifft viele Bereiche: Kliniken, Forschung, IT und auch die Politik.

Assurance Labs: Die Prüfstelle für KI

Ein Kernprojekt von CHAI ist der Aufbau von Assurance Labs. Diese unabhängigen Prüflabore testen KI-Modelle, bevor sie in der Klinik eingesetzt werden.
Sie prüfen:

  • Ist das Modell sicher?
  • Ist es fair und diskriminiert niemanden?
  • Funktioniert es auch in der Praxis, nicht nur auf Testdaten?

Die ersten Labs entstehen an bekannten US-Institutionen, etwa der Mayo Clinic, der Duke University und der Stanford University (Becker’s Hospital Review, 2024).

Datenschutz dank Technologiepartnern

KI-Tests brauchen echte Patientendaten. Doch Datenschutz ist hier entscheidend. CHAI arbeitet mit BeeKeeperAI zusammen. Diese Plattform ermöglicht es, KI-Modelle auf echten, aber anonymisierten Daten zu testen – sicher und ohne Datenschutzverletzungen (FierceHealthcare, 2024).

Technologiepartner: Datenschutz & vertrauliches Testen

Eine der größten Hürden für das Testen von KI-Modellen im Gesundheitswesen ist der Schutz sensibler Patientendaten. CHAI kooperiert deshalb mit Technologiepartnern wie BeeKeeperAI, die sogenannte „confidential computing“-Lösungen anbieten.
Damit lassen sich Algorithmen sicher auf realen, aber anonymisierten Patientendaten testen – ein großer Schritt, um praxisnahe, datenschutzkonforme Validierungen zu ermöglichen (FierceHealthcare, 2024).

Modellkarten: Die „Nährwerttabellen“ für KI

Transparenz ist ein zentrales Element der CHAI-Initiative. Ein innovatives Konzept ist das öffentliche Modellkarten-Register, das detaillierte Informationen zu jedem geprüften Modell liefert:

  • Welche Trainingsdaten wurden verwendet?
  • Welche Leistungskennzahlen (Metriken) wurden erreicht?
  • Für welche Anwendungsbereiche ist das Modell geeignet – und wo liegen seine Grenzen?

Dieses Register soll Klinikleitungen, Ärzt:innen, IT-Abteilungen und Forschenden helfen, fundierte Entscheidungen bei der Auswahl und Implementierung von KI-Modellen zu treffen (CHAI, 2024).

Modellkarten: Mehr Klarheit über KI

CHAI setzt auf Transparenz. Dafür gibt es ein öffentliches Modellkarten-Register.
Diese Modellkarten zeigen:

  • Mit welchen Daten wurde das Modell trainiert?
  • Wie gut arbeitet es?
  • Für welche Aufgaben eignet es sich – und wo nicht?

Damit können Ärzt:innen, IT-Teams und Entscheidungsträger:innen besser prüfen, ob ein Modell zu ihrer Einrichtung passt (CHAI, 2024)

Warum ist CHAI wichtig?

KI bringt Chancen, aber auch Risiken. Unfaire Algorithmen, falsche Ergebnisse oder unklare Systeme können großen Schaden anrichten. CHAI zeigt, wie wichtig klare Regeln und Zusammenarbeit sind.
Nur wenn Kliniken, Forschung, Industrie und Politik zusammenarbeiten, können wir das Potenzial von KI voll ausschöpfen – und gleichzeitig die Risiken reduzieren.

Referenzen:

Becker’s Hospital Review (2024). The nonprofit teaming up with Mayo on AI transparency. https://www.beckershospitalreview.com

CHAI (2024). Coalition for Health AI. https://chai.org/

FierceHealthcare (2024). CHAI collaborators open shop to validate algorithms. https://www.fiercehealthcare.com

Diese Seite verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Mit der weiteren Verwendung stimmen Sie dem zu.

Datenschutzerklärung