論文の概要: Group-disentangled Representation Learning with Weakly-Supervised
Regularization
- arxiv url: http://arxiv.org/abs/2110.12185v1
- Date: Sat, 23 Oct 2021 10:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 22:32:41.821698
- Title: Group-disentangled Representation Learning with Weakly-Supervised
Regularization
- Title(参考訳): 弱教師付き正規化を用いたグループ異方表現学習
- Authors: Linh Tran, Amir Hosein Khasahmadi, Aditya Sanghi, Saeid Asgari
- Abstract要約: GroupVAEは、一貫性と非絡み合いの表現を強制するために、単純だが効果的なクルバック・リーバーの発散に基づく正規化である。
本研究では, グループ差分表現が, 公平な分類や, 再構築, 分類, 転帰学習といった3次元形状関連タスクなど, 下流タスクにおいて改善されることを実証する。
- 参考スコア(独自算出の注目度): 13.311886256230814
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Learning interpretable and human-controllable representations that uncover
factors of variation in data remains an ongoing key challenge in representation
learning. We investigate learning group-disentangled representations for groups
of factors with weak supervision. Existing techniques to address this challenge
merely constrain the approximate posterior by averaging over observations of a
shared group. As a result, observations with a common set of variations are
encoded to distinct latent representations, reducing their capacity to
disentangle and generalize to downstream tasks. In contrast to previous works,
we propose GroupVAE, a simple yet effective Kullback-Leibler (KL)
divergence-based regularization across shared latent representations to enforce
consistent and disentangled representations. We conduct a thorough evaluation
and demonstrate that our GroupVAE significantly improves group disentanglement.
Further, we demonstrate that learning group-disentangled representations
improve upon downstream tasks, including fair classification and 3D
shape-related tasks such as reconstruction, classification, and transfer
learning, and is competitive to supervised methods.
- Abstract(参考訳): データの変化の要因を明らかにするための解釈可能かつ人間制御可能な表現の学習は、表現学習における重要な課題である。
弱監督因子群に対する群差表現の学習について検討した。
この課題に対処する既存の手法は、共有群の観測を平均化することによって、近似後部を制約するだけである。
結果として、共通のバリエーションを持つ観測は異なる潜伏表現に符号化され、乱れを解消し下流タスクに一般化する能力が減少する。
従来の研究とは対照的に、一貫した非絡み合った表現を強制するために、共有潜在表現にまたがる単純で効果的なKL発散型正規化であるGroupVAEを提案する。
我々は徹底的な評価を行い、グループVAEがグループ・アンタングルメントを著しく改善することを示す。
さらに, グループ差分表現は, 公平な分類や, 再構築, 分類, 移動学習といった3次元形状関連タスクなど, 下流タスクにおいて改善され, 教師あり手法と競合することを示す。
関連論文リスト
- Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - InfoNCE Loss Provably Learns Cluster-Preserving Representations [54.28112623495274]
InfoNCEが有限個の負のサンプルで学習した表現は、データのクラスタに対して一致していることを示す。
我々の主な成果は、InfoNCEが有限個の負のサンプルで学んだ表現もまた、データのクラスタと一致していることを示すことである。
論文 参考訳(メタデータ) (2023-02-15T19:45:35Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Joint Debiased Representation and Image Clustering Learning with
Self-Supervision [3.1806743741013657]
我々は,新しい共同クラスタリングとコントラスト学習フレームワークを開発した。
不均衡なデータセットの下位クラスタ化を避けるために、デバイアスド・コントラストの損失に適応する。
論文 参考訳(メタデータ) (2022-09-14T21:23:41Z) - Unsupervised Visual Representation Learning by Synchronous Momentum
Grouping [47.48803765951601]
ImageNet上のグループレベルのコントラスト型視覚表現学習法は,バニラ教師あり学習を超越している。
我々は、SMoGが現在のSOTA教師なし表現学習法を超越したことを示すために、徹底的な実験を行う。
論文 参考訳(メタデータ) (2022-07-13T13:04:15Z) - Cycle-Balanced Representation Learning For Counterfactual Inference [42.229586802733806]
本稿では,Cycle-Balanced Representation Learning for counterfactual Inference (CBRE) に基づく新しいフレームワークを提案する。
具体的には,異なるグループに対して,逆行訓練を用いて頑健なバランスの取れた表現を実現し,一方,元データ特性を循環的に保存する情報ループを構築する。
実世界の3つのデータセットの結果は、CBREが最先端の手法にマッチ/アウトパフォーマンスを示し、反現実的推論に適用できる大きな可能性を持っている。
論文 参考訳(メタデータ) (2021-10-29T01:15:16Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Representation Learning for Clustering via Building Consensus [3.7434090710577608]
Unsupervised Representation Learning (ConCURL) を用いたコンセンサスクラスタリングの提案
ConCURLは5つのイメージデータセットのうち4つで、最先端のメソッドよりもクラスタリングパフォーマンスが向上する。
実世界のクラスタリングタスクにおける課題を反映するために,クラスタリングの評価手順を拡張した。
論文 参考訳(メタデータ) (2021-05-04T05:04:03Z) - Weakly-Supervised Disentanglement Without Compromises [53.55580957483103]
インテリジェントエージェントは、環境の変化を観察することで、有用な表現を学べるべきである。
変動の要因の少なくとも1つを共有する非I.d.画像のペアとしてそのような観測をモデル化する。
我々は,どの因子が変化したかのみを知るだけで,非絡み合った表現を学ぶのに十分であることを示す。
論文 参考訳(メタデータ) (2020-02-07T16:39:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。