論文の概要: Disentangling representations in Restricted Boltzmann Machines without
adversaries
- arxiv url: http://arxiv.org/abs/2206.11600v1
- Date: Thu, 23 Jun 2022 10:24:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 20:13:20.313779
- Title: Disentangling representations in Restricted Boltzmann Machines without
adversaries
- Title(参考訳): 敵を伴わない制限ボルツマン機械におけるアンテングリング表現
- Authors: Jorge Fernandez-de-Cossio-Diaz, Simona Cocco, Remi Monasson
- Abstract要約: 本稿では, 敵対的差別者を訓練することなく, 簡易かつ効果的に表現を分離する方法を提案する。
当社のフレームワークが,データのログライクな表現によってコストを計算可能にする方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A goal of unsupervised machine learning is to disentangle representations of
complex high-dimensional data, allowing for interpreting the significant latent
factors of variation in the data as well as for manipulating them to generate
new data with desirable features. These methods often rely on an adversarial
scheme, in which representations are tuned to avoid discriminators from being
able to reconstruct specific data information (labels). We propose a simple,
effective way of disentangling representations without any need to train
adversarial discriminators, and apply our approach to Restricted Boltzmann
Machines (RBM), one of the simplest representation-based generative models. Our
approach relies on the introduction of adequate constraints on the weights
during training, which allows us to concentrate information about labels on a
small subset of latent variables. The effectiveness of the approach is
illustrated on the MNIST dataset, the two-dimensional Ising model, and taxonomy
of protein families. In addition, we show how our framework allows for
computing the cost, in terms of log-likelihood of the data, associated to the
disentanglement of their representations.
- Abstract(参考訳): 教師なし機械学習の目標は、複雑な高次元データの表現を分離することであり、データのばらつきの重要な潜在要因を解釈し、それらを操作して望ましい特徴を持つ新しいデータを生成することである。
これらの手法は、識別者が特定のデータ情報(ラベル)を再構成するのを避けるために、表現をチューニングする敵のスキームにしばしば依存する。
本稿では,敵判別器の訓練を必要とせず,表現の分離を簡便かつ効果的に行う方法を提案し,最も単純な表現ベース生成モデルの一つである制限ボルツマンマシン(rbm)に適用する。
提案手法では,学習中の重み付けに適切な制約を導入することで,潜在変数の小さなサブセットにラベルに関する情報を集中させることができる。
アプローチの有効性は,MNISTデータセット,二次元Isingモデル,およびタンパク質ファミリーの分類で示される。
さらに,当社のフレームワークが,データのログ類似性という観点から,それらの表現の絡み合いに伴うコストの計算を可能にしていることを示す。
関連論文リスト
- Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - ProtoVAE: Prototypical Networks for Unsupervised Disentanglement [1.6114012813668934]
本稿では,自己スーパービジョンを用いて学習した深層学習型プロトタイプネットワークを活用する,新しい深部生成型VAEモデルProtoVAEを提案する。
我々のモデルは、完全に教師なしであり、要素数を含むデータセットの事前知識を必要としない。
提案手法をベンチマークdSprites, 3DShapes, MPI3Dディジアングルメントデータセット上で評価した。
論文 参考訳(メタデータ) (2023-05-16T01:29:26Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Fair mapping [0.0]
本稿では,保護されたグループの分布を選択対象に変換した新しい前処理手法を提案する。
我々はWasserstein GANおよびAttGANフレームワークの最近の成果を活用し、最適なデータポイントの転送を実現する。
提案手法は、データの解釈可能性を維持し、センシティブなグループを正確に定義することなく使用することができる。
論文 参考訳(メタデータ) (2022-09-01T17:31:27Z) - Stable and Compact Face Recognition via Unlabeled Data Driven Sparse
Representation-Based Classification [39.398339531136344]
ラベル付きデータ駆動逆プロジェクション擬フルスペース表現に基づく分類モデルを提案する。
提案モデルは,すべての利用可能なデータの隠された意味情報と本質的な構造情報をマイニングすることを目的としている。
3つの公開データセットの実験により、提案したLR-S-PFSRCモデルが安定した結果が得られることが示された。
論文 参考訳(メタデータ) (2021-11-04T13:19:38Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Supervised Visualization for Data Exploration [9.742277703732187]
本稿では,無作為な森林確率と拡散に基づく次元減少に基づく新しい可視化手法について述べる。
我々のアプローチはノイズやパラメータのチューニングに頑健であり、データ探索のための信頼性の高い可視化を作成しながら、簡単に使用できる。
論文 参考訳(メタデータ) (2020-06-15T19:10:17Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - A probabilistic generative model for semi-supervised training of
coarse-grained surrogates and enforcing physical constraints through virtual
observables [3.8073142980733]
本稿では、トレーニング目的と代理モデル自体の両方において、物理的構造と情報を考慮した柔軟な確率的フレームワークを提供する。
我々は、物理から得られる等式を仮想観測可能なものとして導入し、その可能性を通じて追加情報を提供する確率論的モデルを提案する。
論文 参考訳(メタデータ) (2020-06-02T17:14:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。