論文の概要: Consistent Explanations by Contrastive Learning
- arxiv url: http://arxiv.org/abs/2110.00527v1
- Date: Fri, 1 Oct 2021 16:49:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 17:10:21.906152
- Title: Consistent Explanations by Contrastive Learning
- Title(参考訳): コントラスト学習による一貫した説明
- Authors: Vipin Pillai, Soroush Abbasi Koohpayegani, Ashley Ouligian, Dennis
Fong, Hamed Pirsiavash
- Abstract要約: Grad-CAMのようなポストホック評価技術により、人間は特定のネットワーク決定に責任のある空間領域を検査することができる。
より一貫した説明を生み出すためにモデルをトレーニングするための新しいトレーニング手法を提案する。
提案手法であるContrastive Grad-CAM Consistency (CGC) は,人間のアノテーションと一致したGrad-CAM解釈熱マップを生成する。
- 参考スコア(独自算出の注目度): 15.80891456718324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding and explaining the decisions of neural networks are critical to
building trust, rather than relying on them as black box algorithms. Post-hoc
evaluation techniques, such as Grad-CAM, enable humans to inspect the spatial
regions responsible for a particular network decision. However, it is shown
that such explanations are not always consistent with human priors, such as
consistency across image transformations. Given an interpretation algorithm,
e.g., Grad-CAM, we introduce a novel training method to train the model to
produce more consistent explanations. Since obtaining the ground truth for a
desired model interpretation is not a well-defined task, we adopt ideas from
contrastive self-supervised learning and apply them to the interpretations of
the model rather than its embeddings. Explicitly training the network to
produce more reasonable interpretations and subsequently evaluating those
interpretations will enhance our ability to trust the network. We show that our
method, Contrastive Grad-CAM Consistency (CGC), results in Grad-CAM
interpretation heatmaps that are consistent with human annotations while still
achieving comparable classification accuracy. Moreover, since our method can be
seen as a form of regularizer, on limited-data fine-grained classification
settings, our method outperforms the baseline classification accuracy on
Caltech-Birds, Stanford Cars, VGG Flowers, and FGVC-Aircraft datasets. In
addition, because our method does not rely on annotations, it allows for the
incorporation of unlabeled data into training, which enables better
generalization of the model. Our code is publicly available.
- Abstract(参考訳): ニューラルネットワークの判断を理解し説明することは、ブラックボックスアルゴリズムではなく、信頼を構築する上で重要である。
grad-camなどのポストホック評価技術は、特定のネットワーク決定に関連する空間領域を人間が検査できるようにする。
しかし,このような説明は,画像変換間の一貫性など,必ずしも人間の事前説明と一致しないことが示された。
Grad-CAMのような解釈アルゴリズムが与えられた場合、より一貫性のある説明を生成するためにモデルをトレーニングするための新しいトレーニング手法を導入する。
所望のモデル解釈のための基礎的真理を得ることは、十分に定義されたタスクではないので、コントラスト的な自己教師型学習の考えを採用し、それを埋め込みよりもモデルの解釈に適用する。
ネットワークをより合理的に解釈するように訓練し、その後にそれらの解釈を評価することで、ネットワークを信頼する能力を高める。
本手法は,比較型grad-cam一貫性 (cgc) により,人間のアノテーションと一貫性のあるgrad-cam解釈ヒートマップが得られるが,同等の分類精度が得られている。
さらに,本手法は,限定データきめ細かな分類設定において正則化器の形式と見なせるので,Caltech-Birds,Stanford Cars,VGG Flowers,FGVC-Aircraftデータセットのベースライン分類精度より優れている。
さらに,本手法はアノテーションに依存しないため,ラベルなしデータのトレーニングへの組み込みが可能となり,モデルのより優れた一般化が可能となった。
私たちのコードは公開されています。
関連論文リスト
- TIDE: Training Locally Interpretable Domain Generalization Models Enables Test-time Correction [14.396966854171273]
単一ソース領域の一般化の問題を考える。
既存の手法は通常、訓練中に様々な領域を合成的にカバーする広範囲な拡張に依存している。
予測において,そのような局所的な概念を活用するためにモデルを補完する手法を提案する。
論文 参考訳(メタデータ) (2024-11-25T08:46:37Z) - InfoDisent: Explainability of Image Classification Models by Information Disentanglement [9.380255522558294]
両アプローチの利点を組み合わせたハイブリッドモデルであるInfoDisentを紹介します。
InfoDisentは、情報ボトルネックを利用することで、事前訓練されたディープネットワークの最終層にある情報をアンハングルする。
我々は、ImageNet、CUB-200-2011、Stanford Cars、Stanford Dogsなどのベンチマークデータセットに対するInfoDisentの有効性を検証する。
論文 参考訳(メタデータ) (2024-09-16T14:39:15Z) - Match me if you can: Semi-Supervised Semantic Correspondence Learning with Unpaired Images [76.47980643420375]
本稿では,意味的対応の学習に固有のデータ・ハングリー・マターが存在するという仮説に基づく。
我々は,機械の監督を通じて,ペア化されたキーポイントを確実に強化する単純な機械注釈器を実証する。
我々のモデルは,SPair-71k,PF-PASCAL,PF-WILLOWといった意味対応学習ベンチマークの最先端モデルを上回る。
論文 参考訳(メタデータ) (2023-11-30T13:22:15Z) - Globally Interpretable Graph Learning via Distribution Matching [12.885580925389352]
我々は、まだ十分に研究されていない重要な質問に答えることを目指している。グラフ学習手順のグローバルな解釈を提供するには、どうすればよいのか?
我々は,この問題を,学習過程を支配する高レベルかつ人間の知能なパターンを蒸留することを目的とした,グローバルな解釈可能なグラフ学習として定式化する。
本稿では,解釈に基づいて学習したモデルの忠実度を評価するために,新しいモデル忠実度尺度を提案する。
論文 参考訳(メタデータ) (2023-06-18T00:50:36Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - AutoProtoNet: Interpretability for Prototypical Networks [0.0]
プロトタイプネットワークに解釈可能性を構築するAutoProtoNetを導入する。
この埋め込み空間のポイントをどのように視覚化し、クラス表現を理解するために利用するかを示す。
また,ヒトが不適切な分類パラメータをデバッグできるプロトタイプの改良手法も考案した。
論文 参考訳(メタデータ) (2022-04-02T19:42:03Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。