論文の概要: Hybrid CNN -Interpreter: Interpret local and global contexts for
CNN-based Models
- arxiv url: http://arxiv.org/abs/2211.00185v1
- Date: Mon, 31 Oct 2022 22:59:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 12:49:45.074309
- Title: Hybrid CNN -Interpreter: Interpret local and global contexts for
CNN-based Models
- Title(参考訳): ハイブリッドCNN-Interpreter:CNNモデルにおけるローカルおよびグローバルコンテキストの解釈
- Authors: Wenli Yang, Guan Huang, Renjie Li, Jiahao Yu, Yanyu Chen, Quan Bai,
Beyong Kang
- Abstract要約: 畳み込みニューラルネットワーク(CNN)モデルでは、さまざまな領域のパフォーマンスが向上している。
解釈可能性の欠如は、AI支援アプリケーションの受け入れとデプロイの運用中の保証と規制の大きな障壁である。
本稿では,新しいCNN-Interpreterを提案する。
局所的解釈可能性に対する層特異的な予測結果を調べるための独自の前方伝播機構
特徴相関とフィルタ重大効果を示す新しい大域的解釈可能性
- 参考スコア(独自算出の注目度): 9.148791330175191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural network (CNN) models have seen advanced improvements in
performance in various domains, but lack of interpretability is a major barrier
to assurance and regulation during operation for acceptance and deployment of
AI-assisted applications. There have been many works on input interpretability
focusing on analyzing the input-output relations, but the internal logic of
models has not been clarified in the current mainstream interpretability
methods. In this study, we propose a novel hybrid CNN-interpreter through: (1)
An original forward propagation mechanism to examine the layer-specific
prediction results for local interpretability. (2) A new global
interpretability that indicates the feature correlation and filter importance
effects. By combining the local and global interpretabilities, hybrid
CNN-interpreter enables us to have a solid understanding and monitoring of
model context during the whole learning process with detailed and consistent
representations. Finally, the proposed interpretabilities have been
demonstrated to adapt to various CNN-based model structures.
- Abstract(参考訳): convolutional neural network (cnn)モデルでは、さまざまなドメインのパフォーマンスが改善されているが、ai支援アプリケーションの受け入れと展開のための運用中の保証と規制には、解釈可能性の欠如が大きな障壁となっている。
入力-出力関係の分析に焦点をあてた入力解釈可能性の研究は数多く行われているが、モデルの内部論理は現在の主流解釈法では解明されていない。
本研究では,(1)局所的な解釈可能性に対する層特異的な予測結果を調べるために,新しいハイブリッドcnn-interpreterを提案する。
2) 特徴相関とフィルタの重要性を示す新たなグローバル解釈可能性。
局所的およびグローバルな解釈能力を組み合わせることで、ハイブリッドCNN-インタープリタは、学習プロセス全体におけるモデルコンテキストの理解とモニタリングを、詳細かつ一貫した表現で実現する。
最後に,提案する解釈性は様々なcnnモデル構造に適応することが実証されている。
関連論文リスト
- InterpretCC: Conditional Computation for Inherently Interpretable Neural
Networks [33.26876799710216]
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
我々は、このアイデアを解釈可能なミックス・オブ・エキスパート・モデルに拡張し、人間が興味を持つトピックを指定できるようにします。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - E Pluribus Unum Interpretable Convolutional Neural Networks [6.45481313278967]
我々は、E Pluribus Unum Interpretable CNN(EPU-CNN)という、本質的に解釈可能なCNNモデルをインスタンス化する新しいフレームワークを開発した。
EPU-CNNモデルはCNNサブネットワークで構成され、それぞれが色やテクスチャなどの知覚的特徴を表す入力画像の異なる表現を受信する。
EPU-CNNモデルは、人間に認識可能な解釈を提供しながら、他のCNNアーキテクチャと同等または優れた分類性能が得られることを示す。
論文 参考訳(メタデータ) (2022-08-10T14:37:03Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Finding Representative Interpretations on Convolutional Neural Networks [43.25913447473829]
我々は、多数の類似画像に対して非常に代表的な解釈を生成するために、新しい教師なしのアプローチを開発する。
我々は,共クラスタリング問題として代表解釈を求める問題を定式化し,それをサブモジュラーコストのサブモジュラーカバー問題に変換する。
提案手法の優れた性能を示す実験を行った。
論文 参考訳(メタデータ) (2021-08-13T20:17:30Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - i-Algebra: Towards Interactive Interpretability of Deep Neural Networks [41.13047686374529]
i-Algebraはディープニューラルネットワーク(DNN)を解釈するための対話型フレームワークである。
その中核は原子、構成可能な演算子のライブラリであり、さまざまな入力粒度、異なる推論段階、および異なる解釈の視点からモデル挙動を説明する。
我々は,敵入力の検査,モデル不整合の解消,汚染データのクリーン化など,一連の代表的分析タスクでユーザ研究を行い,その有望なユーザビリティを示す。
論文 参考訳(メタデータ) (2021-01-22T19:22:57Z) - DoLFIn: Distributions over Latent Features for Interpretability [8.807587076209568]
ニューラルネットワークモデルにおける解釈可能性を実現するための新しい戦略を提案する。
我々のアプローチは、確率を中心量として使う成功に基づいている。
DoLFInは解釈可能なソリューションを提供するだけでなく、古典的なCNNやBiLSTMテキスト分類よりも若干優れています。
論文 参考訳(メタデータ) (2020-11-10T18:32:53Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。