Hunderte von KI-Tools für das Gesundheitswesen wurden von der U.S. Food and Drug Administration (FDA) zugelassen, doch nur ein Bruchteil wird rigoros auf klinische Auswirkungen, Fairness oder Verzerrungen evaluiert. Die FDA-Prüfung deckt nur einen kleinen Teil der in Entwicklung und Einsatz befindlichen Gesundheits-KI-Tools ab. Die American Heart Association hat nun eine neue wissenschaftliche Beratung veröffentlicht, die Gesundheitssysteme dazu auffordert, klare und einfache Regeln für den Einsatz von KI in der Patientenversorgung zu übernehmen.
Die in der Fachzeitschrift Circulation veröffentlichte Beratung mit dem Titel "Pragmatic Approaches to the Evaluation and Monitoring of Artificial Intelligence in Healthcare" führt einen pragmatischen, risikobasierten Rahmen für die Bewertung und Überwachung von KI-Tools in der kardiovaskulären und Schlaganfallversorgung ein. Sie baut auf früheren veröffentlichten KI-Rahmenwerken auf, um kritische Lücken in der aktuellen Praxis zu identifizieren. Die Beratung enthält Schlüsselprinzipien, die Gesundheitssystemen helfen sollen, eine effektive KI-Governance für die Auswahl, Validierung, Implementierung und Überwachung von KI-Tools aufzubauen.
Die vier Leitprinzipien für Gesundheitssysteme beim Einsatz klinischer KI sind: strategische Ausrichtung, ethische Bewertung, Nützlichkeit und Wirksamkeit sowie finanzielle Leistungsfähigkeit. Diese Prinzipien sollen sicherstellen, dass KI-Tools messbare klinische Vorteile bringen und gleichzeitig Einzelpersonen vor bekannten und noch unbekannten Schäden schützen. "KI verändert das Gesundheitswesen schneller, als traditionelle Bewertungsrahmen Schritt halten können", sagte Sneha S. Jain, M.D., M.B.A., freiwillige Vorsitzende der American Heart Association AI Science Advisory Writing Group.
Die Beratung hebt hervor, dass zwar KI-Tools die diagnostische Genauigkeit und Effizienz verbessern können, viele jedoch ohne rigorose lokale Validierung oder Bewertung von Verzerrungen eingesetzt werden. Eine kürzliche Umfrage ergab, dass nur 61% der Krankenhäuser, die prädiktive KI-Tools verwenden, diese vor dem Einsatz an lokalen Daten validierten, und weniger als die Hälfte testeten auf Verzerrungen. Diese Variabilität ist am ausgeprägtesten bei kleineren, ländlichen und nicht-akademischen Einrichtungen, was Bedenken hinsichtlich einer konsistenten Versorgung über verschiedene Patientengruppen hinweg und der Sicherheit aufwirft.
Das umfangreiche Netzwerk der American Heart Association von fast 3.000 Krankenhäusern, die an den Get With The Guidelines® Qualitätsverbesserungsprogrammen teilnehmen, darunter mehr als 500 ländliche und kritische Zugangseinrichtungen, positioniert sie als vertrauenswürdige Führungskraft bei der Förderung einer verantwortungsvollen KI-Governance. Die Vereinigung hat über 12 Millionen US-Dollar an Forschungsmitteln im Jahr 2025 bereitgestellt, um neuartige KI-Strategien im Gesundheitswesen auf Sicherheit und Wirksamkeit zu testen.
Die Wissenschaftliche Beratungs-Schreibgruppe stellt klar, dass die Überwachung von KI-Tools nicht nach dem Einsatz enden darf. Die Leistung von KI-Tools kann sich verschlechtern, wenn sich die klinische Praxis ändert oder Patientengruppen variieren. Sie betonen, dass Gesundheitssysteme KI-Governance in bestehende Qualitätssicherungsprogramme integrieren und klare Schwellenwerte für das erneute Training oder die Außerbetriebnahme von Tools definieren sollten, wenn die Leistung nachlässt.
"Verantwortungsvoller KI-Einsatz ist nicht optional, er ist essenziell", sagte Lee H. Schwamm, M.D., FAHA, freiwilliges Mitglied des American Heart Association Committee on AI and Technology Innovation. "Diese Leitlinien bieten praktische Schritte für Gesundheitssysteme, um KI-Tools zu bewerten und zu überwachen, um sicherzustellen, dass sie die Patientenergebnisse verbessern und eine gerechte, hochwertige Versorgung unterstützen."
Die Auswirkungen dieser Leitlinien sind weitreichend, da sie dazu beitragen könnten, die Qualität und Gleichheit der Gesundheitsversorgung zu standardisieren, insbesondere in unterversorgten Gemeinden. Durch die Bereitstellung eines klaren Rahmens für die Bewertung und kontinuierliche Überwachung von KI-Tools adressiert die Beratung kritische Sicherheits- und Gerechtigkeitsbedenken, die mit der raschen Einführung von KI im Gesundheitswesen einhergehen, und stellt sicher, dass Innovation tatsächlich zu verbesserten Patientenresultaten führt.

