論文の概要: A Disentangling Invertible Interpretation Network for Explaining Latent
Representations
- arxiv url: http://arxiv.org/abs/2004.13166v1
- Date: Mon, 27 Apr 2020 20:43:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 05:38:44.722354
- Title: A Disentangling Invertible Interpretation Network for Explaining Latent
Representations
- Title(参考訳): 潜在表現記述のための遠方無逆解釈ネットワーク
- Authors: Patrick Esser, Robin Rombach, Bj\"orn Ommer
- Abstract要約: ユーザにとって理解しやすい意味概念への隠された表現の翻訳として解釈を定式化する。
提案する非可逆解釈ネットワークは,既存のアーキテクチャ上で透過的に適用可能である。
本稿では,2つのイメージをスケッチするだけでなく,教師なしの戦略によって意味概念を定義するための効率的な手法を提案する。
- 参考スコア(独自算出の注目度): 19.398202091883366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have greatly boosted performance in computer vision by
learning powerful representations of input data. The drawback of end-to-end
training for maximal overall performance are black-box models whose hidden
representations are lacking interpretability: Since distributed coding is
optimal for latent layers to improve their robustness, attributing meaning to
parts of a hidden feature vector or to individual neurons is hindered. We
formulate interpretation as a translation of hidden representations onto
semantic concepts that are comprehensible to the user. The mapping between both
domains has to be bijective so that semantic modifications in the target domain
correctly alter the original representation. The proposed invertible
interpretation network can be transparently applied on top of existing
architectures with no need to modify or retrain them. Consequently, we
translate an original representation to an equivalent yet interpretable one and
backwards without affecting the expressiveness and performance of the original.
The invertible interpretation network disentangles the hidden representation
into separate, semantically meaningful concepts. Moreover, we present an
efficient approach to define semantic concepts by only sketching two images and
also an unsupervised strategy. Experimental evaluation demonstrates the wide
applicability to interpretation of existing classification and image generation
networks as well as to semantically guided image manipulation.
- Abstract(参考訳): ニューラルネットワークは、入力データの強力な表現を学習することで、コンピュータビジョンのパフォーマンスを大きく向上させた。
分散コーディングは潜在層が頑健性を改善するために最適であるため、隠れた特徴ベクトルの一部や個々のニューロンに意味を与えるのは妨げられている。
ユーザにとって理解しやすい意味概念への隠された表現の翻訳として解釈を定式化する。
両方のドメイン間のマッピングは、対象ドメインのセマンティックな変更が元の表現を正しく変更できるように、単射でなければならない。
提案された可逆解釈ネットワークは、変更や再トレーニングを必要とせずに、既存のアーキテクチャの上に透過的に適用することができる。
その結果、元の表現を等価で解釈可能な表現に変換し、元の表現の表現性や性能に影響を与えない。
逆解釈ネットワークは隠された表現を別々に意味的に意味のある概念に分解する。
さらに,2つのイメージをスケッチするだけでなく,教師なしの戦略によって意味概念を定義するための効率的な手法を提案する。
実験による評価により,既存の分類や画像生成ネットワークの解釈や,意味的に誘導された画像操作への幅広い適用性が示された。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Identifying Interpretable Subspaces in Image Representations [54.821222487956355]
コントラスト概念(FALCON)を用いて画像表現の特徴を説明する枠組みを提案する。
ターゲット機能として、FALCONは、大きなキャプションデータセットとCLIPのようなトレーニング済みの視覚言語モデルを使用して、高機能なトリミング画像をキャプションする。
キャプション内の各単語は、少数の共有された人間の理解可能な概念に導かれ、ランク付けされる。
論文 参考訳(メタデータ) (2023-07-20T00:02:24Z) - DProtoNet: Decoupling the inference module and the explanation module
enables neural networks to have better accuracy and interpretability [5.333582981327497]
従来の方法では、ニューラルネットワークのアーキテクチャを変更することで、ネットワークは人間の推論プロセスをシミュレートする。
本稿では,DProtoNet(Decoupling Prototypeal Network)を提案する。
解釈モジュールからニューラルネットワーク推論モジュールを分離し、解釈可能なネットワークの特定のアーキテクチャ上の制限を取り除く。
論文 参考訳(メタデータ) (2022-10-15T17:05:55Z) - Adversarially robust segmentation models learn perceptually-aligned
gradients [0.0]
逆学習されたセマンティックセグメンテーションネットワークを用いて画像のインペイントと生成を行うことができることを示す。
知覚的に整合した勾配は、ニューラルネットワークの学習された表現をよりよく理解し、ニューラルネットワークをより解釈しやすいものにする助けとなる、と我々は主張する。
論文 参考訳(メタデータ) (2022-04-03T16:04:52Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Contextual Semantic Interpretability [16.18912769522768]
コンテキストをキャプチャするセマンティックボトルネックを調べます。
属性を解釈可能なスパースグループに集約する2層セマンティックボトルネックを使用する。
本モデルでは,Flickr画像の実際のテストセットに適用した場合,非解釈ベースラインと同程度の精度で予測を行う。
論文 参考訳(メタデータ) (2020-09-18T09:47:05Z) - Making Sense of CNNs: Interpreting Deep Representations & Their
Invariances with INNs [19.398202091883366]
INN に基づくアプローチとして, (i) タスク固有の学習的不変性を, (ii) モデル表現と組み合わさった不変性を, (ii) アクセシブルなセマンティックな概念によって, 可逆的に変換する手法を提案する。
我々の非可逆的アプローチは、その性能を損なうことなく、最先端ネットワークのポストホックな解釈を可能にすることでブラックボックスモデルを理解する能力を大幅に拡張する。
論文 参考訳(メタデータ) (2020-08-04T19:27:46Z) - Domain-aware Visual Bias Eliminating for Generalized Zero-Shot Learning [150.42959029611657]
ドメイン対応ビジュアルバイアス除去(DVBE)ネットワークは2つの相補的な視覚表現を構成する。
目に見えない画像に対しては、最適なセマンティック・視覚アライメントアーキテクチャを自動で検索する。
論文 参考訳(メタデータ) (2020-03-30T08:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。