論文の概要: In defence of post-hoc explanations in medical AI
- arxiv url: http://arxiv.org/abs/2504.20741v1
- Date: Tue, 29 Apr 2025 13:24:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.903758
- Title: In defence of post-hoc explanations in medical AI
- Title(参考訳): 医療AIにおけるポストホックな説明の擁護
- Authors: Joshua Hatherley, Lauritz Munch, Jens Christian Bjerring,
- Abstract要約: 批評家は、ポストホックの説明の利点は、ブラックボックスシステムが出力に到達するために要する実際の推論過程を複製するのではなく、単に近似するだけであるため、非常に誇張されていると論じている。
ポストホックな説明がブラックボックスシステムの正確な推論過程を再現しなかったとしても、ブラックボックスシステムに対するユーザの機能的理解を改善することができると論じる。
- 参考スコア(独自算出の注目度): 1.2289361708127877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since the early days of the Explainable AI movement, post-hoc explanations have been praised for their potential to improve user understanding, promote trust, and reduce patient safety risks in black box medical AI systems. Recently, however, critics have argued that the benefits of post-hoc explanations are greatly exaggerated since they merely approximate, rather than replicate, the actual reasoning processes that black box systems take to arrive at their outputs. In this article, we aim to defend the value of post-hoc explanations against this recent critique. We argue that even if post-hoc explanations do not replicate the exact reasoning processes of black box systems, they can still improve users' functional understanding of black box systems, increase the accuracy of clinician-AI teams, and assist clinicians in justifying their AI-informed decisions. While post-hoc explanations are not a "silver bullet" solution to the black box problem in medical AI, we conclude that they remain a useful strategy for addressing the black box problem in medical AI.
- Abstract(参考訳): 説明可能なAIムーブメントの初期から、ブラックボックス医療AIシステムにおけるユーザ理解を改善し、信頼を促進し、患者の安全リスクを軽減する可能性について、ポストホックな説明が賞賛されている。
しかし近年は、ブラックボックスシステムが出力に到達するのに要する実際の推論過程を複製するのではなく、単に近似するだけなので、ポストホックな説明の利点は大幅に誇張されていると批判されている。
本稿では,この最近の批判に対するポストホックな説明の価値を擁護することを目的とする。
ポストホックな説明がブラックボックスシステムの正確な推論プロセスを再現しなかったとしても、ブラックボックスシステムの機能的理解を改善し、臨床医とAIチームの正確性を高め、臨床医がAIにインフォームされた意思決定を正当化するのを支援できると主張している。
ホック後の説明は、医療AIにおけるブラックボックス問題に対する"銀の弾丸"ソリューションではないが、医療AIにおけるブラックボックス問題に対処するための有用な戦略として、今後も継続する、と結論付けている。
関連論文リスト
- Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - Explanation Hacking: The perils of algorithmic recourse [2.967024581564439]
我々は、リコメンデーションの説明がいくつかの概念的な落とし穴に直面しており、問題のある説明ハッキングにつながると論じている。
代替として、AI決定の説明は理解を目的とすべきである、と我々は主張する。
論文 参考訳(メタデータ) (2024-03-22T12:49:28Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Visual explanations for polyp detection: How medical doctors assess
intrinsic versus extrinsic explanations [5.075555496769664]
深層学習の現在の状況はブラックボックスであり、医療専門家はこれらの手法を臨床に取り入れることに非常に懐疑的だ。
ブラックボックスに光を当てるためにいくつかの方法が提案されているが、これらの説明を消費する医師の意見には一致していない。
本論文は,消化器疾患検出症例に適用した場合の最先端の人工知能手法について,医師に意見を述べるものである。
論文 参考訳(メタデータ) (2022-03-23T09:14:26Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable AI for medical imaging: Explaining pneumothorax diagnoses
with Bayesian Teaching [4.707325679181196]
ベイズ教養に基づく説明の導入と評価を行う。
医療専門家が説明に晒すことで、AIの診断決定を予測できることがわかりました。
これらの結果から,説明可能なAIは医用画像における人間とAIの協調を支援するのに有用であることが示唆された。
論文 参考訳(メタデータ) (2021-06-08T20:49:11Z) - Explainable AI without Interpretable Model [0.0]
AIシステムが、結果の背後にある理由をエンドユーザに説明できることは、これまで以上に重要になっています。
ほとんどの説明可能なAI(XAI)メソッドは、説明を作成するのに使用できる解釈可能なモデルを抽出することに基づいている。
本論文では,文脈的重要性と実用性(CIU)の概念により,ブラックボックスの結果の人間的な説明を直接生成することが可能となる。
論文 参考訳(メタデータ) (2020-09-29T13:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。