論文の概要: Self-Interpretable Model with TransformationEquivariant Interpretation
- arxiv url: http://arxiv.org/abs/2111.04927v1
- Date: Tue, 9 Nov 2021 03:21:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 14:40:19.054473
- Title: Self-Interpretable Model with TransformationEquivariant Interpretation
- Title(参考訳): 変換同変解釈を伴う自己解釈モデル
- Authors: Yipei Wang, Xiaoqian Wang
- Abstract要約: 変換同変解釈を用いた自己解釈モデルSITEを提案する。
我々は幾何学変換の解釈の堅牢性と自己整合性に焦点を当てる。
- 参考スコア(独自算出の注目度): 11.561544418482585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a self-interpretable model SITE with
transformation-equivariant interpretations. We focus on the robustness and
self-consistency of the interpretations of geometric transformations. Apart
from the transformation equivariance, as a self-interpretable model, SITE has
comparable expressive power as the benchmark black-box classifiers, while being
able to present faithful and robust interpretations with high quality. It is
worth noticing that although applied in most of the CNN visualization methods,
the bilinear upsampling approximation is a rough approximation, which can only
provide interpretations in the form of heatmaps (instead of pixel-wise). It
remains an open question whether such interpretations can be direct to the
input space (as shown in the MNIST experiments). Besides, we consider the
translation and rotation transformations in our model. In future work, we will
explore the robust interpretations under more complex transformations such as
scaling and distortion. Moreover, we clarify that SITE is not limited to
geometric transformation (that we used in the computer vision domain), and will
explore SITEin other domains in future work.
- Abstract(参考訳): 本稿では,変換等価解釈を用いた自己解釈モデルSITEを提案する。
我々は幾何学変換の解釈の堅牢性と自己整合性に焦点を当てる。
変換の同値性とは別に、自己解釈可能なモデルとして、SITEはベンチマークブラックボックス分類器と同等の表現力を持ち、高品質で忠実で堅牢な解釈を提示できる。
注意すべきは、cnnの可視化手法のほとんどに適用されるが、双線型アップサンプリング近似は粗い近似であり、(ピクセル単位でではなく)ヒートマップの形でのみ解釈できる。
このような解釈が(mnistの実験で示されているように)入力空間に直接向けられるかどうかは、まだ疑問の余地がない。
さらに, モデルにおける変換と回転変換についても考察する。
今後の研究では、スケーリングや歪みといったより複雑な変換の下でのロバストな解釈を探求する。
さらに、サイトは幾何学的変換(コンピュータビジョンの領域で使ったもの)に限らず、将来の作業で他の領域のサイトを探索することを明確にする。
関連論文リスト
- Neural Interpretable Reasoning [12.106771300842945]
ディープラーニングにおける解釈可能性を実現するための新しいモデリングフレームワークを定式化する。
この複雑性はマルコフ的性質として解釈可能性を扱うことにより緩和できることを示す。
我々はニューラルジェネレーションと解釈可能な実行という新しいモデリングパラダイムを提案する。
論文 参考訳(メタデータ) (2025-02-17T10:33:24Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Probabilistic Transformer: A Probabilistic Dependency Model for
Contextual Word Representation [52.270712965271656]
本稿では,文脈表現の新しいモデルを提案する。
モデルのグラフは変換器に似ており、依存関係と自己意識の対応性がある。
実験により,本モデルが小型・中型データセットのトランスフォーマーと競合することを示す。
論文 参考訳(メタデータ) (2023-11-26T06:56:02Z) - Latent Space Translation via Semantic Alignment [29.2401314068038]
我々は、異なるニューラルモジュールから学んだ表現が、異なる事前学習されたネットワーク間でどのように変換されるかを示す。
提案手法は, 与えられた2つの潜在空間間の変換を直接推定することにより, 付加的な訓練を伴わずに, エンコーダとデコーダを効果的に縫合できる。
特に、ゼロショットテクストテキストエンコーダやビジョンデコーダ、あるいはリバーサがいかに可能かを示し、このマルチモーダル環境で驚くほど優れた分類性能が得られることを示す。
論文 参考訳(メタデータ) (2023-11-01T17:12:00Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - B-cos Alignment for Inherently Interpretable CNNs and Vision
Transformers [97.75725574963197]
本稿では,深層ニューラルネットワーク(DNN)の学習における重み付けの促進による解釈可能性の向上に向けた新たな方向性を提案する。
このような変換の列は、完全なモデル計算を忠実に要約する単一の線形変換を誘導することを示す。
得られた説明は視覚的品質が高く,定量的解釈可能性指標下では良好に機能することを示す。
論文 参考訳(メタデータ) (2023-06-19T12:54:28Z) - Learning Semantic Textual Similarity via Topic-informed Discrete Latent
Variables [17.57873577962635]
我々は、意味的テキスト類似性のためのトピックインフォームド離散潜在変数モデルを開発した。
我々のモデルはベクトル量子化による文対表現のための共有潜在空間を学習する。
我々のモデルは意味的テキスト類似性タスクにおいて、いくつかの強力な神経ベースラインを超えることができることを示す。
論文 参考訳(メタデータ) (2022-11-07T15:09:58Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - Quantised Transforming Auto-Encoders: Achieving Equivariance to
Arbitrary Transformations in Deep Networks [23.673155102696338]
畳み込みニューラルネットワーク(CNN)は画像翻訳と等価である。
埋め込みは任意の等式関係を同時に従うオートエンコーダアーキテクチャを提案する。
いくつかのデータセット上で入力画像の変換版の再レンダリングに成功した結果を示す。
論文 参考訳(メタデータ) (2021-11-25T02:26:38Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。