AI im Gesundheitswesen – nicht so schnell? Die Studie skizziert die Herausforderungen, Gefahren für machine learning

Trotz angepriesen als next-generation-Heilung-alls verwandeln Gesundheitsversorgung in unergründliche Wege, künstliche Intelligenz und maschinelles lernen, stellen immer noch viele Bedenken in Bezug auf Sicherheit und verantwortungsvollen Umsetzung.

BMJ-Qualität und-Sicherheit veröffentlicht eine neue Studie identifiziert kurz-, Mittel – und langfristige Probleme, die Maschine zu lernen, wird die Begegnung in der healthcare-Raum – Hürden, die verhindern könnten, dass Ihre erfolgreiche Umsetzung in einer Breite von use-cases.

Mit allem, was auf dem Spiel steht, von der Forschung und klinischen Leitlinien für die direkte Kontrolle von kritischen Patienten Sicherheitsausrüstung (obwohl das noch in der Zukunft), diese Schichten der Bedenken, die vorschlagen, dass es gibt viele Herausforderungen AI und machine-learning-Anwendungen benötigen, um mehr allgegenwärtig im Gesundheitswesen.

WARUM ES WICHTIG IST
Diese Anwendungen sind oftten gelähmt von den gleichen Problemen fast jedem computing-Aufgabe: der computer macht genau das, was gesagt wird, die einladen können oder verschärfen unbeabsichtigte Folgen. BMJ Befragten verschiedene Anwendungen, die derzeit verwendet werden, sowie jene, die in der Nähe von Horizont und darüber hinaus.

Kurzfristig. Machine Learning ist nur so gut wie die Daten, die es bekommt. Ein Phänomen, bekannt als „Verteilungsgerechtigkeit shift“ kommen kann, in denen die Trainingsdaten und Daten der realen Welt werden verschiedene führende und Algorithmus die falschen Schlüsse ziehen. maschinelles lernen hat auch nicht die gleiche Fähigkeit, Wiegen Sie die Kosten und Konsequenzen von falsch-positiven oder negativen Weg ein Arzt: Sie können nicht „irren auf der Seite der Vorsicht“ wie ein Mensch.

Dies kann besonders problematisch sein, da machine-learning-apps laufen in der Regel als „black box“, wo die Machenschaften der Entscheidungsfindung sind nicht einsehbar. Wenn ein Arzt kann nur beurteilen, eine Vorhersage, die auf einem system basieren, das endgültige Ergebnis, kann es entweder zu untergraben, die menschliche Meinung oder einfach nur beweisen wertlos.

Schließlich, machine-learning-algorithmen, insbesondere diejenigen, die in der black-box-Kategorie, müssen Sie einige Weg, um zu beurteilen, Ihr eigenes Vertrauen in deren Vorhersagen. Ohne eine Gegenleistung zu einem gewissen Grad von Gewissheit, der machine-learning-Anwendung fehlt eine notwendige „fail-safe.“

Mittelfristig. Als maschinelles lernen wird mehr an der Tagesordnung, ärzte und diejenigen, die Interaktion mit machine learning sind in Gefahr, zu selbstgefällig und Behandlung aller computer-generierten Bewertungen als „unfehlbar.“ Vertrauen ein Programm wird noch gefährlicher, im Laufe der Zeit als Trainings-dataset, wird älter und Auseinandersetzungen mit der unvermeidlichen Realität in der Medizin der verändernden Praxis, Medikamente und Veränderungen in der Krankheit Eigenschaften im Laufe der Zeit.

Auf diese Weise, machine learning kann sogar Einfluss auf die medizinische Forschung: es kann der „self-fulfilling“ Vorhersagen, die möglicherweise nicht die beste Vorgehensweise, aber im Laufe der Zeit verstärken Ihren Entscheidungsfindungsprozess.

Langfristig. Obwohl die AI-Steuerung von Prozessen oder Anlagen, die bezieht sich direkt auf das menschliche Leben (insulin-Pumpen, Ventilatoren, etc.) ist noch ein langer Weg ist, Forscher zu finden versuchen, um Anwendungen für diese Technologien müssen vorsichtig Vorgehen. machine-learning-algorithmen, die trainiert sind auf relativ kleine Datensätze und-im Gegensatz zum Menschen nicht in der Lage sind zu berücksichtigen, die den größeren Kontext eines die Bedürfnisse der Patienten oder die Behandlung, die Ergebnisse.

Sie können das „Spiel des Systems“ und lernen, Ergebnisse zu liefern, scheinen kurzfristig erfolgreich, aber laufen gegen längerfristige Ziele. Wie Sie lernen, es gibt ethische und Sicherheit Fragen darüber, wie viel „exploration“ ein machine-learning-system kann verpflichten: einen kontinuierlich lernen Autonomes system wird schließlich Experimentieren Sie mit, die Grenzen der Behandlungen in einer Bemühung, neue Strategien entdecken, die potenziell Schaden den Patienten.

All das lädt ein die problem, die KI und dem maschinellen lernen sollen Adresse – erhöht den direkten menschlichen Kontrolle.

DER GRÖßERE TREND
KI und maschinelles lernen haben laut Debüt im Gesundheitswesen und die rasante Verbreitung dieser Technologien hat, löste eine heftige Debatte darüber, ob Ihre Rolle ist die Verbesserung der Versorgung oder Schäden, die traditionelle Rolle eines Arztes.

Das Potenzial für eine echte Verbesserung ist klar, da einige machine learning-Systeme sind schon erheblich besser als Ihre menschlichen Experten-Kollegen bei der überprüfung imaging-Berichte oder die Synthese langwierig Patientenakte zu entwickeln, die eine genauere care plan. BMJ erkennt an diesen Entwicklungen, sondern warnt vor einer Vielzahl von unvorhersehbaren Konsequenzen von Vertrauen Maschine lernen zu blind oder zu schnell.

Stattdessen müssen Forscher gehen mit einem scharfen Auge in Richtung, wie ein computer Daten verarbeitet und das lernen im Vergleich zu einem menschlichen, als auch die ethischen und die Konsequenzen für die Sicherheit der neuen Welt, dass Sie helfen, zu Schmieden.

AUF DER PLATTE
„Die Entwicklung der KI in der Gesundheit durch die Anwendung von ML ist ein fruchtbares Gebiet der Forschung, aber das rasante Tempo des Wandels, die Vielfalt der verschiedenen Techniken und der Vielzahl von tuning-Parametern, die es schwierig machen, sich ein klares Bild davon, wie genau diese Systeme könnten in der klinischen Praxis oder wie reproduzierbar Sie sind in unterschiedlichen klinischen Kontexten,“ schrieb die Autoren des Berichts.

„Dies wird verstärkt durch einen Mangel an Konsens darüber, wie ML Studien berichten sollten potentielle bias, für welche die Autoren glauben, dass die Standards for Reporting of Diagnostic Accuracy initiative könnte ein nützlicher Ausgangspunkt“, fügten Sie hinzu. „Die Forscher müssen auch zu berücksichtigen, wie die ML-Modelle, wie wissenschaftliche Daten legt, kann lizenziert und vertrieben und dienen zur Erleichterung der Reproduktion von Forschungsergebnissen in verschiedenen Einstellungen.“

Benjamin Harris ist ein Maine-basierte freier Schriftsteller und ehemalige new media producer für HIMSS Medien.
Twitter: @BenzoHarris.