論文の概要: Towards a perturbation-based explanation for medical AI as differentiable programs
- arxiv url: http://arxiv.org/abs/2502.14001v1
- Date: Wed, 19 Feb 2025 07:56:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:30:21.039680
- Title: Towards a perturbation-based explanation for medical AI as differentiable programs
- Title(参考訳): 異なるプログラムとしての医療AIの摂動に基づく説明に向けて
- Authors: Takeshi Abe, Yoshiyuki Asai,
- Abstract要約: 医学や医療では、AIモデルが生み出す結果の十分かつ客観的な説明可能性に対して、特に要求がある。
本研究では,入力に加わった小さな摂動に対するモデル応答を安定に測定する,ディープラーニングモデルのヤコビ行列の数値的可用性について検討する。
これは摂動に基づく説明への第一歩であり、臨床応用におけるAIモデルの反応を理解し解釈する医療実践者を支援する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recent advancement in machine learning algorithms reaches a point where medical devices can be equipped with artificial intelligence (AI) models for diagnostic support and routine automation in clinical settings. In medicine and healthcare, there is a particular demand for sufficient and objective explainability of the outcome generated by AI models. However, AI models are generally considered as black boxes due to their complexity, and the computational process leading to their response is often opaque. Although several methods have been proposed to explain the behavior of models by evaluating the importance of each feature in discrimination and prediction, they may suffer from biases and opacities arising from the scale and sampling protocol of the dataset used for training or testing. To overcome the shortcomings of existing methods, we explore an alternative approach to provide an objective explanation of AI models that can be defined independently of the learning process and does not require additional data. As a preliminary study for this direction of research, this work examines a numerical availability of the Jacobian matrix of deep learning models that measures how stably a model responses against small perturbations added to the input. The indicator, if available, are calculated from a trained AI model for a given target input. This is a first step towards a perturbation-based explanation, which will assist medical practitioners in understanding and interpreting the response of the AI model in its clinical application.
- Abstract(参考訳): 近年の機械学習アルゴリズムの進歩は、臨床現場での診断支援と定期的な自動化のための人工知能(AI)モデルを医療機器に搭載できる段階に達している。
医学や医療では、AIモデルが生み出す結果の十分かつ客観的な説明可能性に対して、特に要求がある。
しかし、AIモデルは複雑さのために一般にブラックボックスと見なされ、その応答につながる計算プロセスはしばしば不透明である。
識別と予測における各特徴の重要性を評価することによってモデルの振る舞いを説明するためにいくつかの手法が提案されているが、それらは訓練やテストに使用されるデータセットのスケールとサンプリングプロトコルから生じるバイアスや不透明さに悩まされる可能性がある。
既存の手法の欠点を克服するために、学習プロセスとは独立して定義でき、追加データを必要としないAIモデルの客観的な説明を提供するための代替手法を検討する。
この研究の方向性に関する予備的な研究として、入力に加わった小さな摂動に対するモデル応答の安定度を測定する深層学習モデルのヤコビ行列の数値的可用性について検討する。
インジケータは、もし利用可能であれば、所定のターゲット入力のために、トレーニングされたAIモデルから計算される。
これは摂動に基づく説明への第一歩であり、臨床応用におけるAIモデルの反応を理解し解釈する医療実践者を支援する。
関連論文リスト
- Towards Virtual Clinical Trials of Radiology AI with Conditional Generative Modeling [10.014130930114172]
本稿では,放射線学AIの仮想臨床試験(VCT)のために設計された条件付き生成AIモデルを紹介する。
画像と解剖学的構造の関節分布を学習することにより,実世界の患者集団の正確な再現を可能にした。
我々は,合成CTを用いたVCTを用いた放射線学AIモデルの有意義な評価を行った。
論文 参考訳(メタデータ) (2025-02-13T15:53:52Z) - Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - QXAI: Explainable AI Framework for Quantitative Analysis in Patient
Monitoring Systems [9.29069202652354]
定量的分析のための説明可能なAI(QXAI)フレームワークは、回帰および分類タスクのポストホックモデル説明可能性と本質的な説明可能性によって提案される。
我々は,センサデータに基づく心拍数予測と身体活動の分類を行うために,人工ニューラルネットワーク (ANN) と注意に基づく双方向LSTM (BiLSTM) モデルを採用した。
論文 参考訳(メタデータ) (2023-09-19T03:50:30Z) - GENIE-NF-AI: Identifying Neurofibromatosis Tumors using Liquid Neural
Network (LTC) trained on AACR GENIE Datasets [0.0]
神経線維腫症を診断するための解釈可能なAIアプローチを提案する。
提案手法は99.86%の精度で既存モデルより優れていた。
論文 参考訳(メタデータ) (2023-04-26T10:28:59Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Context-dependent Explainability and Contestability for Trustworthy
Medical Artificial Intelligence: Misclassification Identification of
Morbidity Recognition Models in Preterm Infants [0.0]
説明可能なAI(XAI)は、エンドユーザーをサポートするAI推論を明確にすることで、この要件に対処することを目指している。
提案手法は,3つの主要な柱上に構築され,臨床コンテキストの潜時空間を利用して特徴セットを分解し,世界的説明の臨床的関連性を評価するとともに,局所的説明に基づく潜時空間類似性(LSS)を考察した。
論文 参考訳(メタデータ) (2022-12-17T07:59:09Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。