論文の概要: Semi-Supervised Disentanglement of Class-Related and Class-Independent
Factors in VAE
- arxiv url: http://arxiv.org/abs/2102.00892v1
- Date: Mon, 1 Feb 2021 15:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:05:39.742559
- Title: Semi-Supervised Disentanglement of Class-Related and Class-Independent
Factors in VAE
- Title(参考訳): VAEにおけるクラス関連およびクラス非依存因子の半監督的解離
- Authors: Sina Hajimiri, Aryo Lotfi, Mahdieh Soleymani Baghshah
- Abstract要約: 本稿では,データ変動のクラス関連要因とクラス非依存要因を両立できるフレームワークを提案する。
このフレームワークは,データからクラス関連因子を抽出するプロセスを改善するために,潜在空間における注意機構を利用する。
実験の結果,我々のフレームワークは,クラス関連要因とクラス非依存要因を分離し,解釈可能な特徴を学習していることがわかった。
- 参考スコア(独自算出の注目度): 4.533408938245526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, extending variational autoencoder's framework to learn
disentangled representations has received much attention. We address this
problem by proposing a framework capable of disentangling class-related and
class-independent factors of variation in data. Our framework employs an
attention mechanism in its latent space in order to improve the process of
extracting class-related factors from data. We also deal with the multimodality
of data distribution by utilizing mixture models as learnable prior
distributions, as well as incorporating the Bhattacharyya coefficient in the
objective function to prevent highly overlapping mixtures. Our model's encoder
is further trained in a semi-supervised manner, with a small fraction of
labeled data, to improve representations' interpretability. Experiments show
that our framework disentangles class-related and class-independent factors of
variation and learns interpretable features. Moreover, we demonstrate our
model's performance with quantitative and qualitative results on various
datasets.
- Abstract(参考訳): 近年,不整合表現を学習するための変分オートエンコーダのフレームワークの拡張が注目されている。
そこで我々は,データ変動のクラス関連要因とクラス非依存要因を分離できるフレームワークを提案する。
本フレームワークは,データからクラス関連因子を抽出するプロセスを改善するために,潜在空間における注意機構を用いる。
また,混合モデルを学習可能な事前分布として活用し,目的関数にbhattacharyya係数を組み込んで重なり合う混合を防止することで,データ分布の多様性を扱う。
我々のモデルエンコーダは、表現の解釈性を改善するために、ラベル付きデータの少ない半教師付き方式でさらに訓練されている。
実験により,本フレームワークはクラスやクラスに依存しない変動要因を分離し,解釈可能な特徴を学習することを示した。
さらに,各データセットの定量的,定性的な結果を用いて,モデルの性能を実証する。
関連論文リスト
- Enhancing Robustness of Foundation Model Representations under
Provenance-related Distribution Shifts [8.298173603769063]
分布シフト下における基礎モデルに基づくモデルの安定性について検討する。
我々は,多施設データセットの文脈に現れる分布シフトの形式である,証明によるコンバウンディングに焦点をあてる。
その結果, 基礎モデルでは, コンバウンド・バイ・プロビデンス関係の分布シフトに対して, ある程度の頑健性を示すが, 調整により改善できることがわかった。
論文 参考訳(メタデータ) (2023-12-09T02:02:45Z) - Class Distribution Shifts in Zero-Shot Learning: Learning Robust
Representations [4.605037293860087]
ゼロショット学習におけるロバスト表現の学習アルゴリズムを提案する。
提案手法は,シミュレーションと実世界のデータセットの両方において,多様なクラス分布への一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2023-11-30T14:14:31Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - On the Trade-off of Intra-/Inter-class Diversity for Supervised
Pre-training [72.8087629914444]
教師付き事前学習データセットのクラス内多様性(クラス毎のサンプル数)とクラス間多様性(クラス数)とのトレードオフの影響について検討した。
トレーニング前のデータセットのサイズが固定された場合、最高のダウンストリームのパフォーマンスは、クラス内/クラス間の多様性のバランスがとれる。
論文 参考訳(メタデータ) (2023-05-20T16:23:50Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Leveraging Relational Information for Learning Weakly Disentangled
Representations [11.460692362624533]
絡み合いは神経表現を強制するのは難しい性質である。
我々は、(弱々しい)非絡み合い表現の学習に関する別の見解を示す。
論文 参考訳(メタデータ) (2022-05-20T09:58:51Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Learning Structured Latent Factors from Dependent Data:A Generative
Model Framework from Information-Theoretic Perspective [18.88255368184596]
本稿では,潜在空間における様々な基盤構造を持つ生成モデル学習のための新しいフレームワークを提案する。
我々のモデルは、様々なタイプの望まれる構造を反映した意味論的に意味のある潜在因子の集合を学習するための原則化されたアプローチを提供する。
論文 参考訳(メタデータ) (2020-07-21T06:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。