論文の概要: A unified view for unsupervised representation learning with density
ratio estimation: Maximization of mutual information, nonlinear ICA and
nonlinear subspace estimation
- arxiv url: http://arxiv.org/abs/2101.02083v1
- Date: Wed, 6 Jan 2021 15:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 00:11:41.104270
- Title: A unified view for unsupervised representation learning with density
ratio estimation: Maximization of mutual information, nonlinear ICA and
nonlinear subspace estimation
- Title(参考訳): 密度比推定を用いた教師なし表現学習の統一的視点:相互情報、非線形ICAおよび非線形部分空間推定の最大化
- Authors: Hiroaki Sasaki and Takashi Takenouchi
- Abstract要約: 本稿では,教師なし表現学習において,密度比推定が有望な目標であることを強調する。
密度比推定は、相互情報(MI)の最大化、非線形独立成分分析(ICA)、低次元非線形部分空間の推定のための新しいフレームワークの3つの枠組みを統一することを示した。
- 参考スコア(独自算出の注目度): 3.35805121090065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised representation learning is one of the most important problems in
machine learning. Recent promising methods are based on contrastive learning.
However, contrastive learning often relies on heuristic ideas, and therefore it
is not easy to understand what contrastive learning is doing. This paper
emphasizes that density ratio estimation is a promising goal for unsupervised
representation learning, and promotes understanding to contrastive learning.
Our primal contribution is to theoretically show that density ratio estimation
unifies three frameworks for unsupervised representation learning: Maximization
of mutual information (MI), nonlinear independent component analysis (ICA) and
a novel framework for estimation of a lower-dimensional nonlinear subspace
proposed in this paper. This unified view clarifies under what conditions
contrastive learning can be regarded as maximizing MI, performing nonlinear ICA
or estimating the lower-dimensional nonlinear subspace in the proposed
framework. Furthermore, we also make theoretical contributions in each of the
three frameworks: We show that MI can be maximized through density ratio
estimation under certain conditions, while our analysis for nonlinear ICA
reveals a novel insight for recovery of the latent source components, which is
clearly supported by numerical experiments. In addition, some theoretical
conditions are also established to estimate a nonlinear subspace in the
proposed framework. Based on the unified view, we propose two practical methods
for unsupervised representation learning through density ratio estimation: The
first method is an outlier-robust method for representation learning, while the
second one is a sample-efficient nonlinear ICA method. Finally, we numerically
demonstrate usefulness of the proposed methods in nonlinear ICA and through
application to a downstream task for classification.
- Abstract(参考訳): 教師なし表現学習は機械学習における最も重要な問題の1つである。
最近の有望な手法は対照的な学習に基づいている。
しかし、対照的な学習はしばしばヒューリスティックな考えに依存しているため、対照的な学習が何をしているのかを理解することは容易ではない。
本稿では,教師なし表現学習の有望な目標は密度比推定であり,コントラスト学習への理解を促進することを強調する。
本稿では,非教師なし表現学習のための3つの枠組み,すなわち相互情報の最大化(mi),非線形独立成分分析(ica),および低次元非線形部分空間推定のための新しい枠組みを理論的に示すことを目的とする。
この統合された視点は、比較学習がMIの最大化、非線形ICAの実行、あるいは提案フレームワークの低次元非線形部分空間の推定などとみなすことができる条件下で明らかにする。
さらに,各フレームワークの理論的貢献も行う: 特定の条件下での密度比推定によりMIを最大化できることを示す一方,非線形ICA解析では,数値実験で明らかに支持されている潜伏成分の回収に関する新たな知見を明らかにする。
さらに,提案フレームワークの非線形部分空間を推定する理論条件も確立されている。
統一的な視点から、密度比推定による教師なし表現学習のための2つの実践的手法を提案し、第1の方法は、表現学習のためのアウトリー・ロバスト法であり、第2の方法は、サンプリング効率のよい非線形ICA法である。
最後に,非線形icaにおける提案手法の有用性を数値的に示し,下流課題の分類への応用を行った。
関連論文リスト
- Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Towards Unsupervised Representation Learning: Learning, Evaluating and
Transferring Visual Representations [1.8130068086063336]
我々は3つの視点から教師なし(視覚的)表現学習の分野に貢献する。
我々は、教師なし、バックプロパゲーションのない畳み込み自己組織型ニューラルネットワーク(CSNN)を設計する。
我々は、プリテキストとターゲットオブジェクトに依存しないメトリクスを定義するために、広く使われている(非)線形評価プロトコルの上に構築する。
CARLANEは,2次元車線検出のための最初の3方向sim-to-realドメイン適応ベンチマークであり,自己教師付き学習に基づく手法である。
論文 参考訳(メタデータ) (2023-11-30T15:57:55Z) - Understanding Self-Predictive Learning for Reinforcement Learning [61.62067048348786]
強化学習のための自己予測学習の学習ダイナミクスについて検討する。
本稿では,2つの表現を同時に学習する新しい自己予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-06T20:43:37Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - Integrating Contrastive Learning with Dynamic Models for Reinforcement
Learning from Images [31.413588478694496]
我々は、学習した埋め込みのマルコビアン性を明確に改善することが望ましいと論じている。
コントラスト学習と動的モデルを統合する自己教師付き表現学習法を提案する。
論文 参考訳(メタデータ) (2022-03-02T14:39:17Z) - Efficient Performance Bounds for Primal-Dual Reinforcement Learning from
Demonstrations [1.0609815608017066]
本稿では,コスト関数の不明な大規模マルコフ決定プロセスについて考察し,限られた専門家による実証から政策を学習する問題に対処する。
既存の逆強化学習法には強力な理論的保証があるが、計算上は高価である。
ラグランジアン双対性を利用して理論と実践のギャップを埋める新しい双線型サドルポイントフレームワークを導入する。
論文 参考訳(メタデータ) (2021-12-28T05:47:24Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Which Mutual-Information Representation Learning Objectives are
Sufficient for Control? [80.2534918595143]
相互情報は、データの表現を学習するために魅力的な形式を提供する。
本稿では,最適政策の学習と表現のための状態表現の十分性について定式化する。
意外なことに、これらの2つの目的は、MDPの構造に関する軽度で一般的な仮定を前提に、不十分な表現をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-14T10:12:34Z) - Robust Unsupervised Learning via L-Statistic Minimization [38.49191945141759]
教師なし学習に焦点をあて、この問題に対する一般的なアプローチを提示する。
重要な仮定は、摂動分布は、許容モデルの特定のクラスに対するより大きな損失によって特徴付けられることである。
教師なし学習におけるいくつかのポピュラーモデルに対する提案基準に関して,一様収束境界を証明した。
論文 参考訳(メタデータ) (2020-12-14T10:36:06Z) - Deep Dimension Reduction for Supervised Representation Learning [51.10448064423656]
本研究は,本質的な特徴を持つ学習表現の次元削減手法を提案する。
提案手法は, 十分次元還元法の非パラメトリック一般化である。
推定された深度非パラメトリック表現は、その余剰リスクが0に収束するという意味で一貫したものであることを示す。
論文 参考訳(メタデータ) (2020-06-10T14:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。