論文の概要: Hybrid CNN -Interpreter: Interpret local and global contexts for
CNN-based Models
- arxiv url: http://arxiv.org/abs/2211.00185v1
- Date: Mon, 31 Oct 2022 22:59:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 12:49:45.074309
- Title: Hybrid CNN -Interpreter: Interpret local and global contexts for
CNN-based Models
- Title(参考訳): ハイブリッドCNN-Interpreter:CNNモデルにおけるローカルおよびグローバルコンテキストの解釈
- Authors: Wenli Yang, Guan Huang, Renjie Li, Jiahao Yu, Yanyu Chen, Quan Bai,
Beyong Kang
- Abstract要約: 畳み込みニューラルネットワーク(CNN)モデルでは、さまざまな領域のパフォーマンスが向上している。
解釈可能性の欠如は、AI支援アプリケーションの受け入れとデプロイの運用中の保証と規制の大きな障壁である。
本稿では,新しいCNN-Interpreterを提案する。
局所的解釈可能性に対する層特異的な予測結果を調べるための独自の前方伝播機構
特徴相関とフィルタ重大効果を示す新しい大域的解釈可能性
- 参考スコア(独自算出の注目度): 9.148791330175191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural network (CNN) models have seen advanced improvements in
performance in various domains, but lack of interpretability is a major barrier
to assurance and regulation during operation for acceptance and deployment of
AI-assisted applications. There have been many works on input interpretability
focusing on analyzing the input-output relations, but the internal logic of
models has not been clarified in the current mainstream interpretability
methods. In this study, we propose a novel hybrid CNN-interpreter through: (1)
An original forward propagation mechanism to examine the layer-specific
prediction results for local interpretability. (2) A new global
interpretability that indicates the feature correlation and filter importance
effects. By combining the local and global interpretabilities, hybrid
CNN-interpreter enables us to have a solid understanding and monitoring of
model context during the whole learning process with detailed and consistent
representations. Finally, the proposed interpretabilities have been
demonstrated to adapt to various CNN-based model structures.
- Abstract(参考訳): convolutional neural network (cnn)モデルでは、さまざまなドメインのパフォーマンスが改善されているが、ai支援アプリケーションの受け入れと展開のための運用中の保証と規制には、解釈可能性の欠如が大きな障壁となっている。
入力-出力関係の分析に焦点をあてた入力解釈可能性の研究は数多く行われているが、モデルの内部論理は現在の主流解釈法では解明されていない。
本研究では,(1)局所的な解釈可能性に対する層特異的な予測結果を調べるために,新しいハイブリッドcnn-interpreterを提案する。
2) 特徴相関とフィルタの重要性を示す新たなグローバル解釈可能性。
局所的およびグローバルな解釈能力を組み合わせることで、ハイブリッドCNN-インタープリタは、学習プロセス全体におけるモデルコンテキストの理解とモニタリングを、詳細かつ一貫した表現で実現する。
最後に,提案する解釈性は様々なcnnモデル構造に適応することが実証されている。
関連論文リスト
- Improving Neuron-level Interpretability with White-box Language Models [11.898535906016907]
我々は、CRATE(Coding RAte TransformEr)という、ホワイトボックストランスフォーマーのようなアーキテクチャを導入する。
包括的実験では、ニューロンレベルの解釈可能性において、顕著な改善(最大103%の相対的な改善)が見られた。
CRATEの解釈可能性の向上は、関連するトークンを一貫して一意に活性化する能力の強化によるものである。
論文 参考訳(メタデータ) (2024-10-21T19:12:33Z) - GINN-KAN: Interpretability pipelining with applications in Physics Informed Neural Networks [5.2969467015867915]
本稿では,解釈可能性パイプラインの概念を導入し,複数の解釈可能性技術を導入し,各手法の精度を向上する。
我々は、標準的なニューラルネットワークアーキテクチャに解釈可能性を導入する可能性のために選択された2つの最近のモデルを評価する。
両モデルの利点を合成する新しい解釈可能なニューラルネットワークGINN-KANを提案する。
論文 参考訳(メタデータ) (2024-08-27T04:57:53Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - E Pluribus Unum Interpretable Convolutional Neural Networks [6.45481313278967]
我々は、E Pluribus Unum Interpretable CNN(EPU-CNN)という、本質的に解釈可能なCNNモデルをインスタンス化する新しいフレームワークを開発した。
EPU-CNNモデルはCNNサブネットワークで構成され、それぞれが色やテクスチャなどの知覚的特徴を表す入力画像の異なる表現を受信する。
EPU-CNNモデルは、人間に認識可能な解釈を提供しながら、他のCNNアーキテクチャと同等または優れた分類性能が得られることを示す。
論文 参考訳(メタデータ) (2022-08-10T14:37:03Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - i-Algebra: Towards Interactive Interpretability of Deep Neural Networks [41.13047686374529]
i-Algebraはディープニューラルネットワーク(DNN)を解釈するための対話型フレームワークである。
その中核は原子、構成可能な演算子のライブラリであり、さまざまな入力粒度、異なる推論段階、および異なる解釈の視点からモデル挙動を説明する。
我々は,敵入力の検査,モデル不整合の解消,汚染データのクリーン化など,一連の代表的分析タスクでユーザ研究を行い,その有望なユーザビリティを示す。
論文 参考訳(メタデータ) (2021-01-22T19:22:57Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。