論文の概要: Causal Scoring Medical Image Explanations: A Case Study On Ex-vivo
Kidney Stone Images
- arxiv url: http://arxiv.org/abs/2309.01921v1
- Date: Tue, 5 Sep 2023 03:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 16:32:27.346104
- Title: Causal Scoring Medical Image Explanations: A Case Study On Ex-vivo
Kidney Stone Images
- Title(参考訳): 因果スコアリング医療画像の解説--元ビボ腎臓結石像を事例として
- Authors: Armando Villegas-Jimenez and Daniel Flores-Araiza and Francisco
Lopez-Tiro and Gilberto Ochoa-Ruiz andand Christian Daul
- Abstract要約: 本研究では,クラスの画像に対する関心対象領域と分類器の出力から特徴量間の因果関係を測定する手法を用いる。
本実験は,クラスごとの利害対象の面積が説明可能な方法からマスクによって示される場合の因果関係の改善を示唆する。
- 参考スコア(独自算出の注目度): 1.6273083168563973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: On the promise that if human users know the cause of an output, it would
enable them to grasp the process responsible for the output, and hence provide
understanding, many explainable methods have been proposed to indicate the
cause for the output of a model based on its input. Nonetheless, little has
been reported on quantitative measurements of such causal relationships between
the inputs, the explanations, and the outputs of a model, leaving the
assessment to the user, independent of his level of expertise in the subject.
To address this situation, we explore a technique for measuring the causal
relationship between the features from the area of the object of interest in
the images of a class and the output of a classifier. Our experiments indicate
improvement in the causal relationships measured when the area of the object of
interest per class is indicated by a mask from an explainable method than when
it is indicated by human annotators. Hence the chosen name of Causal
Explanation Score (CaES)
- Abstract(参考訳): 人間のユーザがアウトプットの原因を知っていれば、アウトプットに責任のあるプロセスを把握でき、それを理解するために、その入力に基づいてモデルのアウトプットの原因を示すために多くの説明可能な方法が提案されている。
それにもかかわらず、入力と説明とモデルの出力の間の因果関係の定量的な測定についてはほとんど報告されていない。
このような状況に対処するため,我々は,クラスの画像に対する関心対象の領域と分類器の出力から特徴の因果関係を測定する手法を検討する。
本研究は,クラス毎の関心対象の面積が説明可能な方法でマスクによって示される場合と,人間の注釈によって示される場合とで測定された因果関係の改善を示す。
そのため、CaES (Causal Explanation Score) の名称が選ばれた。
関連論文リスト
- Analyzing the Influence of Training Samples on Explanations [5.695152528716705]
本稿では,与えられた説明に強い影響を与えるトレーニングデータサンプルを同定する新しい問題を提案する。
そこで本研究では,そのような学習サンプルを同定するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-05T07:20:06Z) - CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - A Song of (Dis)agreement: Evaluating the Evaluation of Explainable
Artificial Intelligence in Natural Language Processing [7.527234046228323]
我々は、注意に基づく説明のための評価指標としてランク相関を用いるのをやめるべきであると主張している。
注意に基づく説明は,最近の特徴帰属法と強く相関しないことがわかった。
論文 参考訳(メタデータ) (2022-05-09T21:07:39Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Instance-wise Causal Feature Selection for Model Interpretation [16.12500804569801]
提案手法は,モデル出力に最も大きな因果効果を持つ入力特徴のサブセットを選択する。
相対的エントロピー距離測定により、特徴のサブセットの因果影響を定量化します。
結果として生じる因果選択はスパーサーであり、シーン内の過度のオブジェクトをカバーします。
論文 参考訳(メタデータ) (2021-04-26T17:51:42Z) - Generative causal explanations of black-box classifiers [15.029443432414947]
学習した低次元データ表現に基づいてブラックボックス分類器の因果後説明を生成する手法を開発した。
次に,画像認識タスクにおける本手法の実用性を示す。
論文 参考訳(メタデータ) (2020-06-24T17:45:52Z) - Amnesic Probing: Behavioral Explanation with Amnesic Counterfactuals [53.484562601127195]
調査結果から行動学的結論を推測できない点を指摘する。
我々は、どの情報がエンコードされているかではなく、その情報がどのように使われているかに焦点を当てた代替手段を提供する。
論文 参考訳(メタデータ) (2020-06-01T15:00:11Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。