論文の概要: ICE-BeeM: Identifiable Conditional Energy-Based Deep Models Based on
Nonlinear ICA
- arxiv url: http://arxiv.org/abs/2002.11537v4
- Date: Mon, 26 Oct 2020 17:49:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 14:15:08.540665
- Title: ICE-BeeM: Identifiable Conditional Energy-Based Deep Models Based on
Nonlinear ICA
- Title(参考訳): ICE-BeeM:非線形ICAに基づく条件付きエネルギーベースディープモデル
- Authors: Ilyes Khemakhem, Ricardo Pio Monti, Diederik P. Kingma, Aapo
Hyv\"arinen
- Abstract要約: 確率モデルの同定可能性理論を考察する。
我々は,独立に修飾されたコンポーネント分析の枠組みにおけるコンポーネントの推定に,我々のモデルを利用できることを示す。
- 参考スコア(独自算出の注目度): 11.919315372249802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the identifiability theory of probabilistic models and establish
sufficient conditions under which the representations learned by a very broad
family of conditional energy-based models are unique in function space, up to a
simple transformation. In our model family, the energy function is the
dot-product between two feature extractors, one for the dependent variable, and
one for the conditioning variable. We show that under mild conditions, the
features are unique up to scaling and permutation. Our results extend recent
developments in nonlinear ICA, and in fact, they lead to an important
generalization of ICA models. In particular, we show that our model can be used
for the estimation of the components in the framework of Independently
Modulated Component Analysis (IMCA), a new generalization of nonlinear ICA that
relaxes the independence assumption. A thorough empirical study shows that
representations learned by our model from real-world image datasets are
identifiable, and improve performance in transfer learning and semi-supervised
learning tasks.
- Abstract(参考訳): 確率モデルの識別可能性理論を考察し、非常に広い条件付きエネルギーベースモデル族によって学習される表現が関数空間において一意であるような十分条件を、単純変換まで確立する。
私たちのモデルファミリでは、エネルギー関数は2つの特徴抽出器、一つは依存変数、もう一つは条件変数の間のドット積である。
穏やかな条件下では、これらの機能はスケーリングと置換に一意である。
我々の結果は最近の非線形ICAの発展を延長し、実際、ICAモデルの重要な一般化につながっている。
特に,我々のモデルは,独立性仮定を緩和する非線形ICAの新しい一般化である独立性変調成分分析(IMCA)の枠組みにおける成分推定に利用できることを示す。
実世界の画像データセットからモデルで学習した表現が識別可能であり,伝達学習や半教師付き学習タスクのパフォーマンスが向上していることを示す。
関連論文リスト
- Identifiable Representation and Model Learning for Latent Dynamic Systems [0.0]
本稿では,潜在力学系における表現とモデル学習の問題について検討する。
線形あるいはアフィン非線形潜在力学系に対して、スケーリングまでの表現を同定し、いくつかの単純な変換までモデルを決定できることを証明した。
論文 参考訳(メタデータ) (2024-10-23T13:55:42Z) - Latent Space Energy-based Neural ODEs [73.01344439786524]
本稿では,連続時間シーケンスデータを表現するために設計された深部力学モデルの新しいファミリを紹介する。
マルコフ連鎖モンテカルロの最大推定値を用いてモデルを訓練する。
発振システム、ビデオ、実世界の状態シーケンス(MuJoCo)の実験は、学習可能なエネルギーベース以前のODEが既存のものより優れていることを示している。
論文 参考訳(メタデータ) (2024-09-05T18:14:22Z) - Shape Arithmetic Expressions: Advancing Scientific Discovery Beyond Closed-Form Equations [56.78271181959529]
GAM(Generalized Additive Models)は、変数とターゲットの間の非線形関係をキャプチャできるが、複雑な特徴相互作用をキャプチャすることはできない。
本稿では,GAMのフレキシブルな形状関数と,数学的表現に見られる複雑な特徴相互作用を融合させる形状表現算術(SHARE)を提案する。
また、標準制約を超えた表現の透明性を保証するSHAREを構築するための一連のルールを設計する。
論文 参考訳(メタデータ) (2024-04-15T13:44:01Z) - CoCoGen: Physically-Consistent and Conditioned Score-based Generative Models for Forward and Inverse Problems [1.0923877073891446]
この研究は生成モデルの到達範囲を物理的問題領域に拡張する。
基礎となるPDEとの整合性を促進するための効率的なアプローチを提案する。
各種物理課題におけるスコアベース生成モデルの可能性と汎用性を示す。
論文 参考訳(メタデータ) (2023-12-16T19:56:10Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Is Model Ensemble Necessary? Model-based RL via a Single Model with
Lipschitz Regularized Value Function [23.255250192599327]
確率力学モデルアンサンブルは、既存のモデルに基づく強化学習法で広く使われている。
値函数に対して、リプシッツ条件が強くなるほど、真の力学によって誘導されるベルマン作用素の間のギャップは小さくなる。
論文 参考訳(メタデータ) (2023-02-02T17:27:16Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - Indeterminacy in Latent Variable Models: Characterization and Strong
Identifiability [3.959606869996233]
潜在変数モデルの不確定性を解析するための理論的枠組みを構築する。
次に、強く識別可能な潜在変数モデルを特定する方法について検討する。
論文 参考訳(メタデータ) (2022-06-02T00:01:27Z) - I Don't Need $\mathbf{u}$: Identifiable Non-Linear ICA Without Side
Information [13.936583337756883]
本稿では,非線形ICAモデルの同定のための新しいアプローチを提案する。
特に、潜在空間でクラスタリングを行う生成モデルに焦点を当てる。
論文 参考訳(メタデータ) (2021-06-09T17:22:08Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。