論文の概要: B-cos Networks: Alignment is All We Need for Interpretability
- arxiv url: http://arxiv.org/abs/2205.10268v1
- Date: Fri, 20 May 2022 16:03:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 13:38:43.116449
- Title: B-cos Networks: Alignment is All We Need for Interpretability
- Title(参考訳): b-cosネットワーク:アライメントは解釈性に必要なすべて
- Authors: Moritz B\"ohle, Mario Fritz, Bernt Schiele
- Abstract要約: 本稿では,深層ニューラルネットワーク(DNN)の学習における重み付けの促進による解釈可能性の向上に向けた新たな方向性を提案する。
B-コス変換は、完全なモデル計算を忠実に要約する単一の線形変換を誘導する。
VGGs、ResNets、InceptionNets、DenseNetsといった一般的なモデルに簡単に統合できることを示します。
- 参考スコア(独自算出の注目度): 136.27303006772294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new direction for increasing the interpretability of deep neural
networks (DNNs) by promoting weight-input alignment during training. For this,
we propose to replace the linear transforms in DNNs by our B-cos transform. As
we show, a sequence (network) of such transforms induces a single linear
transform that faithfully summarises the full model computations. Moreover, the
B-cos transform introduces alignment pressure on the weights during
optimisation. As a result, those induced linear transforms become highly
interpretable and align with task-relevant features. Importantly, the B-cos
transform is designed to be compatible with existing architectures and we show
that it can easily be integrated into common models such as VGGs, ResNets,
InceptionNets, and DenseNets, whilst maintaining similar performance on
ImageNet. The resulting explanations are of high visual quality and perform
well under quantitative metrics for interpretability. Code available at
https://www.github.com/moboehle/B-cos.
- Abstract(参考訳): 本稿では,トレーニング中の重み入力アライメントを促進することにより,深層ニューラルネットワーク(dnn)の解釈性を高めるための新しい方向を提案する。
そこで我々は,DNNの線形変換をB-cos変換で置き換えることを提案する。
このように、そのような変換のシーケンス(ネットワーク)は、完全なモデル計算を忠実に要約する単一の線形変換を誘導する。
さらに、B-cos変換は最適化時に重みにアライメント圧力を導入する。
その結果、これらの誘導線形変換は高度に解釈可能となり、タスク関連特徴と整合する。
重要なことは、B-cos変換は既存のアーキテクチャと互換性があるように設計されており、ImageNet上で同様の性能を維持しながら、VGGs、ResNets、InceptionNets、DenseNetsといった一般的なモデルに容易に統合できることである。
結果として得られた説明は、視覚的な品質が高く、解釈可能性の定量的指標の下でうまく機能する。
コードはhttps://www.github.com/moboehle/b-cosで入手できる。
関連論文リスト
- Variable-size Symmetry-based Graph Fourier Transforms for image compression [65.7352685872625]
可変サイズのグラフフーリエ変換を符号化フレームワークに導入する。
提案アルゴリズムは,ノード間の特定の対称接続を追加することにより,グリッド上の対称グラフを生成する。
実験により、SBGFTは、明示的な多重変換選択に統合された一次変換よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-24T13:00:44Z) - B-cosification: Transforming Deep Neural Networks to be Inherently Interpretable [53.848005910548565]
B-コシフィケーション(B-cosification)は、既存の訓練済みモデルを本質的に解釈可能なものにするための新しいアプローチである。
B-コシフィケーションは、解釈可能性の観点から、スクラッチから訓練されたB-コシフィケーションモデルに匹敵するモデルが得られる。
論文 参考訳(メタデータ) (2024-11-01T16:28:11Z) - Self-Supervised Pre-Training for Table Structure Recognition Transformer [25.04573593082671]
テーブル構造認識変換器のための自己教師付き事前学習(SSP)手法を提案する。
線形射影変換器とハイブリッドCNN変換器のパフォーマンスギャップは、TSRモデルにおける視覚エンコーダのSSPにより緩和できる。
論文 参考訳(メタデータ) (2024-02-23T19:34:06Z) - B-cos Alignment for Inherently Interpretable CNNs and Vision
Transformers [97.75725574963197]
本稿では,深層ニューラルネットワーク(DNN)の学習における重み付けの促進による解釈可能性の向上に向けた新たな方向性を提案する。
このような変換の列は、完全なモデル計算を忠実に要約する単一の線形変換を誘導することを示す。
得られた説明は視覚的品質が高く,定量的解釈可能性指標下では良好に機能することを示す。
論文 参考訳(メタデータ) (2023-06-19T12:54:28Z) - Optimising for Interpretability: Convolutional Dynamic Alignment
Networks [108.83345790813445]
我々は、畳み込み動的アライメントネットワーク(CoDA Nets)と呼ばれる新しいニューラルネットワークモデルを紹介する。
彼らの中核となるビルディングブロックは動的アライメントユニット(DAU)であり、タスク関連パターンに合わせて動的に計算された重みベクトルで入力を変換するように最適化されている。
CoDAネットは一連の入力依存線形変換を通じて分類予測をモデル化し、出力を個々の入力コントリビューションに線形分解することができる。
論文 参考訳(メタデータ) (2021-09-27T12:39:46Z) - Batch Normalization with Enhanced Linear Transformation [73.9885755599221]
線形変換モジュールを適切に拡張することで、バッチ正規化(BN)の能力を効果的に改善できる
私たちのメソッドはBNETと呼ばれ、ほとんどのディープラーニングライブラリで2~3行のコードで実装できます。
我々は、BNETがネットワークトレーニングの収束を加速し、より大きな重み付けで重要なニューロンを割り当てることで空間情報を強化することを検証する。
論文 参考訳(メタデータ) (2020-11-28T15:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。