論文の概要: Assisting clinical practice with fuzzy probabilistic decision trees
- arxiv url: http://arxiv.org/abs/2304.07788v2
- Date: Wed, 26 Apr 2023 23:28:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 16:09:28.559398
- Title: Assisting clinical practice with fuzzy probabilistic decision trees
- Title(参考訳): ファジィ確率決定木を用いた臨床実習
- Authors: Emma L. Ambags, Giulia Capitoli, Vincenzo L' Imperio, Michele
Provenzano, Marco S. Nobile, Pietro Li\`o
- Abstract要約: 本研究では,確率木とファジィ論理を組み合わせて臨床実習を支援する新しい手法であるFPTを提案する。
FPTとその予測は、この目的のために特別に設計されたユーザフレンドリーなインターフェースを用いて、直感的に臨床実践を支援することができることを示す。
- 参考スコア(独自算出の注目度): 2.0999441362198907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The need for fully human-understandable models is increasingly being
recognised as a central theme in AI research. The acceptance of AI models to
assist in decision making in sensitive domains will grow when these models are
interpretable, and this trend towards interpretable models will be amplified by
upcoming regulations. One of the killer applications of interpretable AI is
medical practice, which can benefit from accurate decision support
methodologies that inherently generate trust. In this work, we propose FPT,
(MedFP), a novel method that combines probabilistic trees and fuzzy logic to
assist clinical practice. This approach is fully interpretable as it allows
clinicians to generate, control and verify the entire diagnosis procedure; one
of the methodology's strength is the capability to decrease the frequency of
misdiagnoses by providing an estimate of uncertainties and counterfactuals. Our
approach is applied as a proof-of-concept to two real medical scenarios:
classifying malignant thyroid nodules and predicting the risk of progression in
chronic kidney disease patients. Our results show that probabilistic fuzzy
decision trees can provide interpretable support to clinicians, furthermore,
introducing fuzzy variables into the probabilistic model brings significant
nuances that are lost when using the crisp thresholds set by traditional
probabilistic decision trees. We show that FPT and its predictions can assist
clinical practice in an intuitive manner, with the use of a user-friendly
interface specifically designed for this purpose. Moreover, we discuss the
interpretability of the FPT model.
- Abstract(参考訳): 完全な人間理解可能なモデルの必要性は、AI研究の中心的なテーマとして認識されつつある。
これらのモデルが解釈可能になったら、センシティブなドメインでの意思決定を支援するAIモデルの受け入れが増加し、今後の規制によって解釈可能なモデルへのこの傾向が増幅される。
解釈可能なaiのキラー応用の1つは、本質的に信頼を生み出す正確な意思決定支援方法論の恩恵を受ける医療プラクティスである。
本研究では,確率木とファジィ論理を組み合わせて臨床実習を支援する新しい手法であるFPT(MedFP)を提案する。
このアプローチは、臨床医が診断手順全体を生成、制御、検証できるようにするため、完全に解釈可能であり、方法論の強みの1つは、不確実性や副作用の見積もりを提供することで誤診の頻度を減少させる能力である。
本手法は,悪性甲状腺結節の分類と慢性腎臓病患者の進行リスクの予測という2つの現実の医療シナリオに対する概念実証として適用されている。
さらに,確率モデルにファジィ変数を導入することで,従来の確率的決定木が設定した鮮明なしきい値を使用すると,かなりのニュアンスを失うことが示唆された。
FPTとその予測は、この目的のために特別に設計されたユーザフレンドリーなインターフェースを用いて、直感的に臨床実践を支援することができることを示す。
さらに,FPTモデルの解釈可能性についても論じる。
関連論文リスト
- Inadequacy of common stochastic neural networks for reliable clinical
decision support [0.4262974002462632]
医療意思決定におけるAIの普及は、倫理的および安全性に関する懸念から、いまだに妨げられている。
しかし、一般的なディープラーニングアプローチは、データシフトによる過信傾向にある。
本研究は臨床応用における信頼性について考察する。
論文 参考訳(メタデータ) (2024-01-24T18:49:30Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - Explainable AI for Malnutrition Risk Prediction from m-Health and
Clinical Data [3.093890460224435]
異種m-healthデータに基づく早期かつ説明可能な栄養失調リスク検出のための新しいAIフレームワークを提案する。
対象非依存および個人化予測を含む広範囲なモデル評価を行った。
また,グローバルモデル記述を抽出するベンチマークXAI法についても検討した。
論文 参考訳(メタデータ) (2023-05-31T08:07:35Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Context-dependent Explainability and Contestability for Trustworthy
Medical Artificial Intelligence: Misclassification Identification of
Morbidity Recognition Models in Preterm Infants [0.0]
説明可能なAI(XAI)は、エンドユーザーをサポートするAI推論を明確にすることで、この要件に対処することを目指している。
提案手法は,3つの主要な柱上に構築され,臨床コンテキストの潜時空間を利用して特徴セットを分解し,世界的説明の臨床的関連性を評価するとともに,局所的説明に基づく潜時空間類似性(LSS)を考察した。
論文 参考訳(メタデータ) (2022-12-17T07:59:09Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Improvement of a Prediction Model for Heart Failure Survival through
Explainable Artificial Intelligence [0.0]
本研究は、心不全生存予測モデルの説明可能性分析と評価について述べる。
このモデルでは、最高のアンサンブルツリーアルゴリズムを選択できるデータワークフローパイプラインと、最高の機能選択テクニックが採用されている。
本論文の主な貢献は、精度-説明可能性バランスに基づいて、HF生存率の最良の予測モデルを選択するための説明可能性駆動型アプローチである。
論文 参考訳(メタデータ) (2021-08-20T09:03:26Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。