Fundamentmodelle mit der Fähigkeit, multimodale Daten zu verarbeiten und zu generieren, haben die Rolle der KI in der Medizin verändert. Die Forscher stellten jedoch fest, dass eine große Einschränkung ihrer Zuverlässigkeit Halluzinationen ist, in denen ungenaue oder fabrizierte Informationen sich auf klinische Entscheidungen und die Patientensicherheit auswirken können, so eine Studie, die in veröffentlicht wurde Medrxiv.
In der Studie definierten Forscher eine medizinische Halluzination als in jedem Fall, in dem ein Modell einen irreführenden medizinischen Inhalt erzeugt.
Die Forscher wollten die einzigartigen Merkmale, Ursachen und Auswirkungen von medizinischen Halluzinationen untersuchen, wobei der Schwerpunkt darauf liegt, wie sich diese Fehler in klinischen Szenarien in realer Welt manifestieren.
Bei der Betrachtung von medizinischen Halluzinationen konzentrierten sich die Forscher auf eine Taxonomie zum Verständnis und zur Bekämpfung von medizinischen Halluzinationen. Benchmarking-Modelle mit medizinischem Halluzinationsdatensatz und von Ärzten ankündigten Großsprachmodell (LLM) auf reale medizinische Fälle, die direkte Einblicke in die klinischen Auswirkungen von Halluzinationen und eine multinationale Klinik-Umfrage über ihre Erfahrungen mit medizinischen Halluzinationen bieten.
“Unsere Ergebnisse zeigen, dass Inferenztechniken wie den Gedanken und die Augmented-Erzeugung der Kette der Kette effektiv die Halluzinationsraten reduzieren können. Trotz dieser Verbesserungen bestehen jedoch nicht triviale Halluzinationsniveaus”, schrieben die Autoren der Studie.
Die Forscher sagten, dass Daten aus der Studie den ethischen und praktischen Imperativ für “robuste Erkennung und Minderungsstrategien” unterstreichen und eine Grundlage für Regulierungsrichtlinien schaffen, die die Patientensicherheit priorisieren und die klinische Integrität aufrechterhalten, wenn KI stärker in das Gesundheitswesen integriert wird.
“Das Suggestions von Klinikern unterstreicht nicht nur den dringenden Bedarf an technischen Fortschritten, sondern auch für klarere ethische und regulatorische Richtlinien, um die Sicherheit der Patienten zu gewährleisten”, schrieben die Autoren.
Der größere Pattern
Die Autoren stellten fest, dass ihre Ergebnisse als kritische Leitfaden für Forscher, Entwickler, Kliniker und politische Entscheidungsträger als kritische Leitfaden für Forscher, Entwickler, Kliniker und politische Entscheidungsträger dienen sollten.
“In Zukunft, fortgesetzte Aufmerksamkeit, interdisziplinäre Zusammenarbeit und der Fokus auf robuste Validierung und ethische Rahmenbedingungen werden im Gesundheitswesen von größter Bedeutung sein, während es effektiv schützt, die inhärenten Risiken der medizinischen Halluzinationen zu schützen und eine Zukunft zu sichern, in der AI als zuverlässige und vertrauenswürdige, die die Patientenversorgung und die klinischen Entscheidungsfindung dient.
Anfang dieses Monats setzte sich David Lareau, CEO und Präsident von Medicomp Programs, zusammen mit Himss TV zu diskutieren mildernde KI -Halluzinationen Verbesserung der Patientenversorgung. LaReau sagte, dass 8% bis 10% der von AI erfassten Informationen aus komplexen Begegnungen möglicherweise korrekt sein; Das Instrument seines Unternehmens kann jedoch diese Probleme für die Überprüfung der Kliniker markieren.
Der American Most cancers Society (ACS) und Healthcare AI Firm Schicht Gesundheit angekündigt Eine mehrjährige Zusammenarbeit Ziel, LLMs zu verwenden, um die Krebsforschung zu beschleunigen.
ACS verwendet die LLM-Antriebsdatenabstraktionsplattform der LLM Well being von Layer Well being, um klinische Daten aus Tausenden von medizinischen Diagrammen von Patienten zu ziehen, die in ACS-Forschungsstudien aufgenommen wurden.
Diese Studien umfassen die Krebspräventionsstudie-3, eine Populationsstudie mit 300.000 Teilnehmern, unter denen bei mehreren Tausenden Krebs diagnostiziert wurde und ihre medizinischen Unterlagen bereitgestellt wurden.
Die Plattform von Layer Well being liefert in kürzerer Zeit Daten mit dem Ziel, die Effizienz der Krebsforschung zu verbessern und ACS zu ermöglichen, tiefere Einblicke aus medizinischen Unterlagen zu erhalten. Die KI-Plattform ist speziell für die Gesundheitsversorgung vorgesehen, um die longitudinalen Krankenakten eines Patienten zu untersuchen und komplexe klinische Fragen zu beantworten, wobei eine evidenzbasierte Methode verwendet wird, um jede Antwort mit direkten Zitaten aus dem Diagramm zu rechtfertigen.
Der Plan priorisiert Transparenz und Erklärung und beseitigt das Downside der „Halluzination“, das mit anderen LLMs regelmäßig beobachtet wird, sagten die Unternehmen.
Discussion about this post