論文の概要: A Novel Interaction-based Methodology Towards Explainable AI with Better
Understanding of Pneumonia Chest X-ray Images
- arxiv url: http://arxiv.org/abs/2104.12672v1
- Date: Mon, 19 Apr 2021 23:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 19:48:04.291291
- Title: A Novel Interaction-based Methodology Towards Explainable AI with Better
Understanding of Pneumonia Chest X-ray Images
- Title(参考訳): 肺炎胸部X線画像の理解を深めた説明可能なAIに向けた対話型新しい手法
- Authors: Shaw-Hwa Lo, Yiqiao Yin
- Abstract要約: 本稿では,画像中の雑音および非情報的変数をスクリーニングするための相互作用に基づく手法であるI-Score(I-Score)を提案する。
提案手法をPneumonia Chest X-ray Imageデータセットに実世界の応用に適用し,その成果を報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the field of eXplainable AI (XAI), robust ``blackbox'' algorithms such as
Convolutional Neural Networks (CNNs) are known for making high prediction
performance. However, the ability to explain and interpret these algorithms
still require innovation in the understanding of influential and, more
importantly, explainable features that directly or indirectly impact the
performance of predictivity. A number of methods existing in literature focus
on visualization techniques but the concepts of explainability and
interpretability still require rigorous definition. In view of the above needs,
this paper proposes an interaction-based methodology -- Influence Score
(I-score) -- to screen out the noisy and non-informative variables in the
images hence it nourishes an environment with explainable and interpretable
features that are directly associated to feature predictivity. We apply the
proposed method on a real world application in Pneumonia Chest X-ray Image data
set and produced state-of-the-art results. We demonstrate how to apply the
proposed approach for more general big data problems by improving the
explainability and interpretability without sacrificing the prediction
performance. The contribution of this paper opens a novel angle that moves the
community closer to the future pipelines of XAI problems.
- Abstract(参考訳): eXplainable AI(XAI)の分野では、畳み込みニューラルネットワーク(CNN)のようなロバストな 'blackbox'' アルゴリズムが高い予測性能で知られている。
しかし、これらのアルゴリズムを説明し、解釈する能力は、予測性能に直接的または間接的に影響を及ぼす、影響力のある、そしてより重要な説明可能な機能を理解するのに革新を必要とする。
文献に存在する多くの手法は可視化技術に重点を置いているが、説明可能性と解釈可能性の概念は厳密な定義を必要とする。
そこで本稿では, 画像中のノイズや非インフォーマティブな変数を抽出し, 特徴予測に直接関連した説明可能な, 解釈可能な特徴を持つ環境を育む, インタラクションベースの方法論であるインフルエンススコア(Iスコア)を提案する。
提案手法をPneumonia Chest X-ray Imageデータセットに実世界の応用に適用し,その成果を報告する。
本稿では,より一般的なビッグデータ問題に対して,予測性能を犠牲にすることなく,説明可能性と解釈可能性を改善することにより,提案手法を適用する方法を示す。
本論文の貢献により,XAI問題の今後のパイプラインにコミュニティを近づける新たなアングルが開かれる。
関連論文リスト
- Controllable Edge-Type-Specific Interpretation in Multi-Relational Graph Neural Networks for Drug Response Prediction [6.798254568821052]
本稿では,がん治療薬の反応予測アルゴリズムであるCETExplainerを提案する。
制御可能なエッジタイプ固有の重み付け機構を導入し、予測モデルに対して微細で生物学的に意味のある説明を提供する。
実世界のデータセットに関する実証分析は、CETExplainerが優れた安定性を達成し、主要なアルゴリズムと比較して説明品質を向上させることを示した。
論文 参考訳(メタデータ) (2024-08-30T09:14:38Z) - Explainable Deep Learning Framework for Human Activity Recognition [3.9146761527401424]
本稿では,HARモデルの解釈性と有効性を高めるモデル非依存フレームワークを提案する。
競争力のあるデータ拡張を実装することで、我々のフレームワークはモデル決定の直感的でアクセスしやすい説明を提供する。
論文 参考訳(メタデータ) (2024-08-21T11:59:55Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Towards a Shapley Value Graph Framework for Medical peer-influence [0.9449650062296824]
本稿では,機能間相互作用のグラフ表現を用いた説明を深く研究する新しい枠組みを提案する。
ブラックボックス機械学習(ML)モデルの解釈可能性を改善し、介入を通知することを目的としている。
論文 参考訳(メタデータ) (2021-12-29T16:24:50Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。