論文の概要: Making Sense of CNNs: Interpreting Deep Representations & Their
Invariances with INNs
- arxiv url: http://arxiv.org/abs/2008.01777v1
- Date: Tue, 4 Aug 2020 19:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:39:41.563643
- Title: Making Sense of CNNs: Interpreting Deep Representations & Their
Invariances with INNs
- Title(参考訳): CNNのセンス: 深部表現の解釈とINNとの不変性
- Authors: Robin Rombach, Patrick Esser, Bj\"orn Ommer
- Abstract要約: INN に基づくアプローチとして, (i) タスク固有の学習的不変性を, (ii) モデル表現と組み合わさった不変性を, (ii) アクセシブルなセマンティックな概念によって, 可逆的に変換する手法を提案する。
我々の非可逆的アプローチは、その性能を損なうことなく、最先端ネットワークのポストホックな解釈を可能にすることでブラックボックスモデルを理解する能力を大幅に拡張する。
- 参考スコア(独自算出の注目度): 19.398202091883366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To tackle increasingly complex tasks, it has become an essential ability of
neural networks to learn abstract representations. These task-specific
representations and, particularly, the invariances they capture turn neural
networks into black box models that lack interpretability. To open such a black
box, it is, therefore, crucial to uncover the different semantic concepts a
model has learned as well as those that it has learned to be invariant to. We
present an approach based on INNs that (i) recovers the task-specific, learned
invariances by disentangling the remaining factor of variation in the data and
that (ii) invertibly transforms these recovered invariances combined with the
model representation into an equally expressive one with accessible semantic
concepts. As a consequence, neural network representations become
understandable by providing the means to (i) expose their semantic meaning,
(ii) semantically modify a representation, and (iii) visualize individual
learned semantic concepts and invariances. Our invertible approach
significantly extends the abilities to understand black box models by enabling
post-hoc interpretations of state-of-the-art networks without compromising
their performance. Our implementation is available at
https://compvis.github.io/invariances/ .
- Abstract(参考訳): ますます複雑なタスクに取り組むために、ニューラルネットワークは抽象表現を学習する重要な能力となっている。
これらのタスク固有の表現、特に、彼らが捉えた不変性は、ニューラルネットワークを解釈性に欠けるブラックボックスモデルに変える。
したがって、そのようなブラックボックスを開くには、モデルが学習した概念と不変であることを学んだ概念の異なる概念を明らかにすることが不可欠である。
INNに基づくアプローチを提案する。
(i)データのばらつきの残存要因とそれとを区別することにより、タスク固有の学習不変性を回復する
(ii)これらの回復した不変性をモデル表現と組み合わせて、アクセス可能な意味概念を持つ等しく表現可能なものに変換する。
その結果、ニューラルネットワーク表現は、その手段を提供することで理解できるようになる。
(i)その意味的な意味を明らかにする。
(ii)表現を意味的に修飾すること、及び
(iii)個々の学習意味概念と不変性を可視化する。
我々の非可逆的アプローチは、その性能を損なうことなく、最先端ネットワークのポストホックな解釈を可能にすることでブラックボックスモデルを理解する能力を大幅に拡張する。
私たちの実装はhttps://compvis.github.io/invariances/で利用可能です。
関連論文リスト
- Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Labeling Neural Representations with Inverse Recognition [25.867702786273586]
Inverse Recognition (INVERT)は、学習した表現と人間の理解可能な概念を結びつけるためのスケーラブルなアプローチである。
以前の研究とは対照的に、INVERTは多様な種類のニューロンを処理でき、計算の複雑さが小さく、セグメンテーションマスクの可用性に依存しない。
本稿では,様々なシナリオにおけるINVERTの適用性を示す。
論文 参考訳(メタデータ) (2023-11-22T18:55:25Z) - On the Transition from Neural Representation to Symbolic Knowledge [2.2528422603742304]
本稿では,EMアルゴリズムを用いてデータのトランザクショナル表現を学習するニューラルネットワークトランザクショナル辞書学習(TDL)フレームワークを提案する。
我々は,協調ゲームとしての入力の分解に関して,拡散モデルを用いてフレームワークを実装した。
さらに、マルコフモデルによって実現されたRLを用いて、学習したプロトタイプをさらに調整する。
論文 参考訳(メタデータ) (2023-08-03T19:29:35Z) - SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks [63.24965775030674]
この研究はベッセル畳み込みニューラルネットワーク(B-CNN)の開発を示す
B-CNNは、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更する。
他の手法と比較して,B-CNNの性能を評価するために検討を行った。
論文 参考訳(メタデータ) (2023-04-18T18:06:35Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - LMMS Reloaded: Transformer-based Sense Embeddings for Disambiguation and
Beyond [2.9005223064604078]
近年のトランスフォーマーに基づく言語モデルでは, 感覚特有の情報を確実に伝達する文脈表現が可能であることが証明されている。
14のNLM変種に関する探索解析により,NLMのすべての層からの情報を活用するための,より原理的なアプローチを導入する。
また、タスク固有のモデルとは対照的に、これらの感覚埋め込みの汎用性を強調し、WSD以外のいくつかの感覚関連タスクに適用する。
論文 参考訳(メタデータ) (2021-05-26T10:14:22Z) - Learning Semantically Meaningful Features for Interpretable
Classifications [17.88784870849724]
SemCNNは視覚特徴と単語句の関連を学習する。
複数のベンチマークデータセットの実験結果は、SemCNNが明確な意味を持つ特徴を学習できることを実証している。
論文 参考訳(メタデータ) (2021-01-11T14:35:16Z) - A Disentangling Invertible Interpretation Network for Explaining Latent
Representations [19.398202091883366]
ユーザにとって理解しやすい意味概念への隠された表現の翻訳として解釈を定式化する。
提案する非可逆解釈ネットワークは,既存のアーキテクチャ上で透過的に適用可能である。
本稿では,2つのイメージをスケッチするだけでなく,教師なしの戦略によって意味概念を定義するための効率的な手法を提案する。
論文 参考訳(メタデータ) (2020-04-27T20:43:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。