論文の概要: Semi-Supervised Disentanglement of Class-Related and Class-Independent
Factors in VAE
- arxiv url: http://arxiv.org/abs/2102.00892v1
- Date: Mon, 1 Feb 2021 15:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:05:39.742559
- Title: Semi-Supervised Disentanglement of Class-Related and Class-Independent
Factors in VAE
- Title(参考訳): VAEにおけるクラス関連およびクラス非依存因子の半監督的解離
- Authors: Sina Hajimiri, Aryo Lotfi, Mahdieh Soleymani Baghshah
- Abstract要約: 本稿では,データ変動のクラス関連要因とクラス非依存要因を両立できるフレームワークを提案する。
このフレームワークは,データからクラス関連因子を抽出するプロセスを改善するために,潜在空間における注意機構を利用する。
実験の結果,我々のフレームワークは,クラス関連要因とクラス非依存要因を分離し,解釈可能な特徴を学習していることがわかった。
- 参考スコア(独自算出の注目度): 4.533408938245526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, extending variational autoencoder's framework to learn
disentangled representations has received much attention. We address this
problem by proposing a framework capable of disentangling class-related and
class-independent factors of variation in data. Our framework employs an
attention mechanism in its latent space in order to improve the process of
extracting class-related factors from data. We also deal with the multimodality
of data distribution by utilizing mixture models as learnable prior
distributions, as well as incorporating the Bhattacharyya coefficient in the
objective function to prevent highly overlapping mixtures. Our model's encoder
is further trained in a semi-supervised manner, with a small fraction of
labeled data, to improve representations' interpretability. Experiments show
that our framework disentangles class-related and class-independent factors of
variation and learns interpretable features. Moreover, we demonstrate our
model's performance with quantitative and qualitative results on various
datasets.
- Abstract(参考訳): 近年,不整合表現を学習するための変分オートエンコーダのフレームワークの拡張が注目されている。
そこで我々は,データ変動のクラス関連要因とクラス非依存要因を分離できるフレームワークを提案する。
本フレームワークは,データからクラス関連因子を抽出するプロセスを改善するために,潜在空間における注意機構を用いる。
また,混合モデルを学習可能な事前分布として活用し,目的関数にbhattacharyya係数を組み込んで重なり合う混合を防止することで,データ分布の多様性を扱う。
我々のモデルエンコーダは、表現の解釈性を改善するために、ラベル付きデータの少ない半教師付き方式でさらに訓練されている。
実験により,本フレームワークはクラスやクラスに依存しない変動要因を分離し,解釈可能な特徴を学習することを示した。
さらに,各データセットの定量的,定性的な結果を用いて,モデルの性能を実証する。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Enhancing Robustness of Foundation Model Representations under
Provenance-related Distribution Shifts [8.298173603769063]
分布シフト下における基礎モデルに基づくモデルの安定性について検討する。
我々は,多施設データセットの文脈に現れる分布シフトの形式である,証明によるコンバウンディングに焦点をあてる。
その結果, 基礎モデルでは, コンバウンド・バイ・プロビデンス関係の分布シフトに対して, ある程度の頑健性を示すが, 調整により改善できることがわかった。
論文 参考訳(メタデータ) (2023-12-09T02:02:45Z) - On the Trade-off of Intra-/Inter-class Diversity for Supervised
Pre-training [72.8087629914444]
教師付き事前学習データセットのクラス内多様性(クラス毎のサンプル数)とクラス間多様性(クラス数)とのトレードオフの影響について検討した。
トレーニング前のデータセットのサイズが固定された場合、最高のダウンストリームのパフォーマンスは、クラス内/クラス間の多様性のバランスがとれる。
論文 参考訳(メタデータ) (2023-05-20T16:23:50Z) - Leveraging Relational Information for Learning Weakly Disentangled
Representations [11.460692362624533]
絡み合いは神経表現を強制するのは難しい性質である。
我々は、(弱々しい)非絡み合い表現の学習に関する別の見解を示す。
論文 参考訳(メタデータ) (2022-05-20T09:58:51Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Learning Structured Latent Factors from Dependent Data:A Generative
Model Framework from Information-Theoretic Perspective [18.88255368184596]
本稿では,潜在空間における様々な基盤構造を持つ生成モデル学習のための新しいフレームワークを提案する。
我々のモデルは、様々なタイプの望まれる構造を反映した意味論的に意味のある潜在因子の集合を学習するための原則化されたアプローチを提供する。
論文 参考訳(メタデータ) (2020-07-21T06:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。