論文の概要: Directive Explanations for Monitoring the Risk of Diabetes Onset:
Introducing Directive Data-Centric Explanations and Combinations to Support
What-If Explorations
- arxiv url: http://arxiv.org/abs/2302.10671v1
- Date: Tue, 21 Feb 2023 13:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 15:01:47.358259
- Title: Directive Explanations for Monitoring the Risk of Diabetes Onset:
Introducing Directive Data-Centric Explanations and Combinations to Support
What-If Explorations
- Title(参考訳): 糖尿病発症リスクモニタリングのための指示的説明--調査支援のための指示的データ中心的説明と組み合わせの導入
- Authors: Aditya Bhattacharya, Jeroen Ooge, Gregor Stiglic, Katrien Verbert
- Abstract要約: 本稿では,糖尿病発症リスクを予測する説明ダッシュボードを提案する。
データ中心、機能重要度、サンプルベースの説明でこれらの予測を説明する。
11名の医療専門家と45名の医療専門家と51名の糖尿病患者を対象に研究を行った。
- 参考スコア(独自算出の注目度): 1.7109770736915972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable artificial intelligence is increasingly used in machine learning
(ML) based decision-making systems in healthcare. However, little research has
compared the utility of different explanation methods in guiding healthcare
experts for patient care. Moreover, it is unclear how useful, understandable,
actionable and trustworthy these methods are for healthcare experts, as they
often require technical ML knowledge. This paper presents an explanation
dashboard that predicts the risk of diabetes onset and explains those
predictions with data-centric, feature-importance, and example-based
explanations. We designed an interactive dashboard to assist healthcare
experts, such as nurses and physicians, in monitoring the risk of diabetes
onset and recommending measures to minimize risk. We conducted a qualitative
study with 11 healthcare experts and a mixed-methods study with 45 healthcare
experts and 51 diabetic patients to compare the different explanation methods
in our dashboard in terms of understandability, usefulness, actionability, and
trust. Results indicate that our participants preferred our representation of
data-centric explanations that provide local explanations with a global
overview over other methods. Therefore, this paper highlights the importance of
visually directive data-centric explanation method for assisting healthcare
experts to gain actionable insights from patient health records. Furthermore,
we share our design implications for tailoring the visual representation of
different explanation methods for healthcare experts.
- Abstract(参考訳): 説明可能な人工知能は、医療における機械学習(ML)ベースの意思決定システムでますます使われている。
しかし、医療専門家を患者ケアに導くための様々な説明方法の有用性を比較する研究はほとんどない。
さらに、これらの手法が、技術的ML知識を必要とすることが多いため、医療専門家にとってどれほど有用で、理解可能で、行動可能で、信頼できるかは不明です。
本稿では,糖尿病発症リスクを予測し,その予測をデータ中心,特徴重要,例に基づく説明で説明する。
糖尿病発症のリスクをモニタリングし,リスクを最小限に抑えるための対策を推奨するために,看護師や医師などの医療専門家を支援するインタラクティブダッシュボードを設計した。
11名の医療専門家による質的研究と,45名の医療専門家と51名の糖尿病患者を対象に,理解性,有用性,行動性,信頼度の観点から異なる説明方法を比較検討した。
結果から, 参加者は, 地域的な説明を他の方法よりも概観的に提供するデータ中心の説明の表現を好んだ。
そこで本研究では,医療専門家が患者の健康記録から実効性のある洞察を得るのを助けるために,視覚的な指示データ中心の説明方法の重要性を強調する。
さらに,我々は,様々な説明方法の視覚的表現を医療専門家向けに調整するための設計上の意味を共有している。
関連論文リスト
- Patient-Centric Knowledge Graphs: A Survey of Current Methods,
Challenges, and Applications [2.913761513290171]
患者中心知識グラフ(PCKG)は、個別の患者ケアに焦点を当てた医療における重要なシフトである。
PCKGは様々な種類の健康データを統合し、患者の健康を包括的に理解する医療専門家に提供します。
本稿はPCKGに関する方法論,課題,機会について概説する。
論文 参考訳(メタデータ) (2024-02-20T00:07:55Z) - Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework [13.215318138576713]
論文は、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解することを目的としている。
論文 参考訳(メタデータ) (2023-11-18T12:29:18Z) - MD-Manifold: A Medical-Distance-Based Representation Learning Approach
for Medical Concept and Patient Representation [6.795388490479779]
医療分析タスクのための医療概念を表現するには、医療領域の知識と事前のデータ情報を統合する必要がある。
MD-Manifoldは,医療概念と患者表現に対する新しいアプローチを提案する。
これには、重要な医療領域の知識と事前のデータ情報を統合するための、新しいデータ拡張アプローチ、コンセプト距離メトリック、および患者と患者のネットワークが含まれる。
論文 参考訳(メタデータ) (2023-04-30T18:58:32Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Predicting Patient Readmission Risk from Medical Text via Knowledge
Graph Enhanced Multiview Graph Convolution [67.72545656557858]
本稿では,電子健康記録の医用テキストを予測に用いる新しい手法を提案する。
外部知識グラフによって強化された多視点グラフを有する患者の退院サマリーを表現している。
実験により,本手法の有効性が証明され,最先端の性能が得られた。
論文 参考訳(メタデータ) (2021-12-19T01:45:57Z) - Explainable Deep Learning in Healthcare: A Methodological Survey from an
Attribution View [36.025217954247125]
本稿では,今後の研究者や臨床医の方法論として,深部・包括的に解釈可能性の方法を紹介した。
我々は、これらの方法が医療問題にどのように適応し、適用されたか、また、医師がこれらのデータ駆動技術をよりよく理解するのにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-12-05T17:12:53Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。