論文の概要: Reasoning with trees: interpreting CNNs using hierarchies
- arxiv url: http://arxiv.org/abs/2406.13257v1
- Date: Wed, 19 Jun 2024 06:45:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 22:59:30.634548
- Title: Reasoning with trees: interpreting CNNs using hierarchies
- Title(参考訳): 木による推論:階層構造を用いたCNNの解釈
- Authors: Caroline Mazini Rodrigues, Nicolas Boutry, Laurent Najman,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)の忠実かつ解釈可能な説明に階層的セグメンテーション技術を用いるフレームワークを導入する。
本手法はモデルの推論忠実性を維持するモデルに基づく階層的セグメンテーションを構築する。
実験により、我々のフレームワークであるxAiTreesが高度に解釈可能で忠実なモデル説明を提供することが示された。
- 参考スコア(独自算出の注目度): 3.6763102409647526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Challenges persist in providing interpretable explanations for neural network reasoning in explainable AI (xAI). Existing methods like Integrated Gradients produce noisy maps, and LIME, while intuitive, may deviate from the model's reasoning. We introduce a framework that uses hierarchical segmentation techniques for faithful and interpretable explanations of Convolutional Neural Networks (CNNs). Our method constructs model-based hierarchical segmentations that maintain the model's reasoning fidelity and allows both human-centric and model-centric segmentation. This approach offers multiscale explanations, aiding bias identification and enhancing understanding of neural network decision-making. Experiments show that our framework, xAiTrees, delivers highly interpretable and faithful model explanations, not only surpassing traditional xAI methods but shedding new light on a novel approach to enhancing xAI interpretability. Code at: https://github.com/CarolMazini/reasoning_with_trees .
- Abstract(参考訳): 課題は、説明可能なAI(xAI)において、ニューラルネットワーク推論の解釈可能な説明を提供することにある。
統合グラディエントのような既存の手法はノイズの多いマップを生成し、LIMEは直感的であるが、モデルの推論から逸脱する可能性がある。
本稿では,畳み込みニューラルネットワーク(CNN)の忠実かつ解釈可能な説明に階層的セグメンテーション技術を用いるフレームワークを提案する。
本手法はモデルに基づく階層的セグメンテーションを構築し,モデルの推論忠実性を維持し,人間中心とモデル中心のセグメンテーションの両方を可能にする。
このアプローチは、マルチスケールの説明、バイアス識別の支援、ニューラルネットワークの意思決定の理解の強化を提供する。
実験により、我々のフレームワークであるxAiTreesは、従来のxAIメソッドを超えるだけでなく、xAIの解釈可能性を高める新しいアプローチに新たな光を当てることで、高度に解釈可能で忠実なモデル説明を提供します。
コードネームは、https://github.com/CarolMazini/reasoning_with_trees。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Concept-based Explanations using Non-negative Concept Activation Vectors
and Decision Tree for CNN Models [4.452019519213712]
本稿では、概念に基づく説明書から抽出した概念に基づいて決定木を訓練することで、畳み込みニューラルネットワーク(CNN)モデルの解釈可能性を高めることができるかどうかを評価する。
論文 参考訳(メタデータ) (2022-11-19T21:42:55Z) - Greybox XAI: a Neural-Symbolic learning framework to produce
interpretable predictions for image classification [6.940242990198]
Greybox XAIは、シンボリック知識ベース(KB)を使うことで、DNNと透明モデルを構成するフレームワークである。
我々は、XAIの普遍的基準が欠如している問題に、説明が何であるかを形式化することで対処する。
この新しいアーキテクチャがどのように正確で、いくつかのデータセットで説明可能であるかを示す。
論文 参考訳(メタデータ) (2022-09-26T08:55:31Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Exploring layerwise decision making in DNNs [1.766593834306011]
ノードの離散的なサンプルアクティベーション値をバイナリ表現として符号化することにより、決定木を抽出できることが示される。
次に、モデルの各レイヤの解釈を生成するために、これらの決定木と既存の特徴属性技術を組み合わせる。
論文 参考訳(メタデータ) (2022-02-01T11:38:59Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Embedded Encoder-Decoder in Convolutional Networks Towards Explainable
AI [0.0]
本稿では,刺激の視覚的特徴を表す新しい説明可能な畳み込みニューラルネットワーク(XCNN)を提案する。
CIFAR-10, Tiny ImageNet, MNISTデータセットを用いた実験結果から, 提案アルゴリズム (XCNN) をCNNで説明可能なものにすることに成功した。
論文 参考訳(メタデータ) (2020-06-19T15:49:39Z) - LIMEtree: Interactively Customisable Explanations Based on Local
Surrogate Multi-output Regression Trees [21.58324172085553]
LIMEtree と呼ばれるブラックボックス予測のためのモデル非依存的かつポストホックな局所的説明可能性手法を提案する。
画像中の物体検出を訓練したディープニューラルネットワーク上でアルゴリズムを検証し,LIME(Local Interpretable Model-Agnostic Explanations)と比較する。
本手法は局所的忠実度保証を伴い,多種多様な説明型を生成する。
論文 参考訳(メタデータ) (2020-05-04T12:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。