論文の概要: Latent Space Explanation by Intervention
- arxiv url: http://arxiv.org/abs/2112.04895v1
- Date: Thu, 9 Dec 2021 13:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 14:14:49.792181
- Title: Latent Space Explanation by Intervention
- Title(参考訳): 干渉による潜時空間説明
- Authors: Itai Gat, Guy Lorberbom, Idan Schwartz, Tamir Hazan
- Abstract要約: 本研究では,個別の変分オートエンコーダに基づいて,予測クラスをシフトする介入機構を用いることで,隠れた概念を明らかにすることを目的とする。
説明モデルは、任意の隠された層とその対応するインターバルド表現から符号化された情報を視覚化する。
- 参考スコア(独自算出の注目度): 16.43087660376697
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The success of deep neural nets heavily relies on their ability to encode
complex relations between their input and their output. While this property
serves to fit the training data well, it also obscures the mechanism that
drives prediction. This study aims to reveal hidden concepts by employing an
intervention mechanism that shifts the predicted class based on discrete
variational autoencoders. An explanatory model then visualizes the encoded
information from any hidden layer and its corresponding intervened
representation. By the assessment of differences between the original
representation and the intervened representation, one can determine the
concepts that can alter the class, hence providing interpretability. We
demonstrate the effectiveness of our approach on CelebA, where we show various
visualizations for bias in the data and suggest different interventions to
reveal and change bias.
- Abstract(参考訳): ディープニューラルネットワークの成功は、入力と出力の間の複雑な関係をエンコードする能力に大きく依存している。
この特性はトレーニングデータにうまく適合するが、予測を駆動するメカニズムを曖昧にする。
本研究では,離散的変分オートエンコーダに基づく予測クラスをシフトする介入機構を用いることで,隠れた概念を明らかにすることを目的とした。
説明モデルは、任意の隠された層とその対応する相互表現から符号化された情報を視覚化する。
元の表現と介入された表現の違いを評価することにより、クラスを変えることができる概念を決定できるため、解釈可能性が提供される。
celeba に対するアプローチの有効性を実証し,データのバイアスの可視化を行い,バイアスの明確化と変化に対する様々な介入を提案する。
関連論文リスト
- Robust Domain Generalisation with Causal Invariant Bayesian Neural Networks [9.999199798941424]
本稿では,推論プロセスのメカニズムからデータ分布の学習を阻害するベイズ型ニューラルネットワークを提案する。
理論的,実験的に,我々のモデルは因果的介入下での推論に近似していることを示す。
論文 参考訳(メタデータ) (2024-10-08T20:38:05Z) - Intervention Lens: from Representation Surgery to String Counterfactuals [106.98481791980367]
言語モデル(LM)の表現空間をターゲットとした介入は、モデル行動に影響を与える効果的な手段として現れてきた。
表現反事実を文字列反事実に変換する方法を提案する。
結果として生じるカウンターファクトは、データ拡張による分類のバイアスを軽減するために使用することができる。
論文 参考訳(メタデータ) (2024-02-17T18:12:02Z) - Understanding Distributed Representations of Concepts in Deep Neural
Networks without Supervision [25.449397570387802]
本稿では,ニューロンの主部分集合を選択することによって,概念の分散表現を発見する教師なし手法を提案する。
我々の経験から、類似のニューロン活性化状態のインスタンスはコヒーレントな概念を共有する傾向があることが示されている。
データ内のラベルなしサブクラスを特定し、誤分類の原因を検出するために利用することができる。
論文 参考訳(メタデータ) (2023-12-28T07:33:51Z) - Unveiling the Potential of Probabilistic Embeddings in Self-Supervised
Learning [4.124934010794795]
自己教師付き学習は、ラベルのないデータから意味のある表現をモデルが取得できるようにすることで、機械学習を前進させる上で重要な役割を担っている。
本稿では,情報ボトルネックに対する確率的モデリングの影響について検討し,情報圧縮と情報保存のトレードオフについて述べる。
以上の結果から,損失空間に新たなボトルネックを導入することにより,アウト・オブ・ディストリビューションの事例を検出する能力が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2023-10-27T12:01:16Z) - Hybrid Predictive Coding: Inferring, Fast and Slow [62.997667081978825]
本稿では,反復型と償却型の両方を原則的に組み合わせたハイブリッド予測符号化ネットワークを提案する。
我々は,本モデルが本質的に不確実性に敏感であり,最小計算費用を用いて正確な信念を得るためにバランスを適応的にバランスさせることを実証した。
論文 参考訳(メタデータ) (2022-04-05T12:52:45Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z) - How does this interaction affect me? Interpretable attribution for
feature interactions [19.979889568380464]
我々はArchipelagoと呼ばれる相互作用属性と検出フレームワークを提案する。
標準アノテーションラベルを用いた実験により,本手法は同等の手法よりもはるかに解釈可能な説明を提供することが示された。
また、ディープニューラルネットワークに新たな洞察を与えるアプローチの視覚化も提供しています。
論文 参考訳(メタデータ) (2020-06-19T05:14:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。