論文の概要: Joint-stochastic-approximation Random Fields with Application to Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2505.20330v1
- Date: Sat, 24 May 2025 07:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.176666
- Title: Joint-stochastic-approximation Random Fields with Application to Semi-supervised Learning
- Title(参考訳): 連立確率近似ランダム場と半教師あり学習への応用
- Authors: Yunfu Song, Zhijian Ou,
- Abstract要約: 本稿では, 深部無方向性生成モデル構築のための新しいアルゴリズム群であるJRF(Joint-Stochastic-approximation random Field)を提案する。
合成実験により,JRFはモード被覆とモード欠落のバランスよく機能し,経験的データ分布とよく一致していることがわかった。
- 参考スコア(独自算出の注目度): 10.293017518216908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our examination of deep generative models (DGMs) developed for semi-supervised learning (SSL), mainly GANs and VAEs, reveals two problems. First, mode missing and mode covering phenomenons are observed in genertion with GANs and VAEs. Second, there exists an awkward conflict between good classification and good generation in SSL by employing directed generative models. To address these problems, we formally present joint-stochastic-approximation random fields (JRFs) -- a new family of algorithms for building deep undirected generative models, with application to SSL. It is found through synthetic experiments that JRFs work well in balancing mode covering and mode missing, and match the empirical data distribution well. Empirically, JRFs achieve good classification results comparable to the state-of-art methods on widely adopted datasets -- MNIST, SVHN, and CIFAR-10 in SSL, and simultaneously perform good generation.
- Abstract(参考訳): 半教師付き学習(SSL)のための深層生成モデル(DGM)の検討により,主にGANとVAEの2つの問題点が明らかになった。
第一に、モード欠失とモード被覆現象は、GANとVAEによる生成において観察される。
第二に、SSLの良質な分類と良質な世代の間には、有向生成モデルを採用するという不運な衝突がある。
これらの問題に対処するため、我々は、SSLを応用した、深層無方向性生成モデルを構築するための新しいアルゴリズム群、JRF(Joint-Stochastic-approximation random Field)を正式に提示する。
合成実験により,JRFはモード被覆とモード欠落のバランスよく機能し,経験的データ分布とよく一致していることがわかった。
実証的に、JRFはSSLにおけるMNIST、SVHN、CIFAR-10といった広く採用されているデータセットの最先端の手法に匹敵する優れた分類結果を達成し、同時に優れた生成を行う。
関連論文リスト
- Joint-stochastic-approximation Autoencoders with Application to Semi-supervised Learning [16.625057220045292]
深層指向生成モデル構築のための新しいアルゴリズム群であるJSAオートエンコーダを提案する。
JSA学習アルゴリズムは、データログ類似性を直接最大化し、後部モデルと推論モデルとの間の包括的KL分散を同時に最小化する。
半教師付きタスクにおいて、離散潜在空間を持つJSAオートエンコーダは、連続潜在空間を持つ他の最先端DGMと同等の性能を発揮することを実証的に示す。
論文 参考訳(メタデータ) (2025-05-24T06:52:23Z) - High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - A Hybrid of Generative and Discriminative Models Based on the
Gaussian-coupled Softmax Layer [5.33024001730262]
本稿では,1つのニューラルネットワークにおける識別モデルと生成モデルのハイブリッドを学習する手法を提案する。
提案手法を半教師付き学習と信頼性校正に適用できることを実証する。
論文 参考訳(メタデータ) (2023-05-10T05:48:22Z) - Language as a Latent Sequence: deep latent variable models for
semi-supervised paraphrase generation [47.33223015862104]
本稿では,観測されたテキストから遅延シーケンス推論を行うVSARという新しい教師なしモデルを提案する。
また、テキストペアからの情報を活用するために、提案したVSARモデルと統合するために設計されたDDLと呼ばれる新しい教師付きモデルを導入する。
実験により, このモデルを組み合わせることで, 完全データに基づく最先端の教師付きベースラインに対して, 競争性能が向上することが示唆された。
論文 参考訳(メタデータ) (2023-01-05T19:35:30Z) - Disentangled Generation with Information Bottleneck for Few-Shot
Learning [21.131911207010376]
サンプルがほとんどない未確認のクラスを分類することを目的とした、ほとんどショット学習は、データの不足のため、難しい。
我々は,新しい情報ボトルネック(IB)ベースのディスタングル生成フレームワーク(DisGenIB)を提案する。
DisGenIBは、生成されたサンプルの識別と多様性を同時に保証することができる。
論文 参考訳(メタデータ) (2022-11-29T13:29:36Z) - Riemannian Score-Based Generative Modeling [56.20669989459281]
経験的性能を示すスコアベース生成モデル(SGM)を紹介する。
現在のSGMは、そのデータが平坦な幾何学を持つユークリッド多様体上で支えられているという前提を定めている。
これにより、ロボット工学、地球科学、タンパク質モデリングの応用にこれらのモデルを使用することができない。
論文 参考訳(メタデータ) (2022-02-06T11:57:39Z) - Score-based Generative Modeling in Latent Space [93.8985523558869]
スコアベース生成モデル(SGM)は,最近,サンプル品質と分布範囲の両面で顕著な結果を示した。
本稿では,Latent Score-based Generative Model (LSGM)を提案する。
データから潜在空間への移動により、より表現力のある生成モデルをトレーニングし、非連続データにSGMを適用し、よりスムーズなSGMをより小さな空間で学習することができる。
論文 参考訳(メタデータ) (2021-06-10T17:26:35Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - An empirical study of domain-agnostic semi-supervised learning via
energy-based models: joint-training and pre-training [16.14838937433809]
ジェネレーティブSSL法は、ジョイントトレーニングまたはプレトレーニングによる生成モデルに基づく教師なし学習を含む。
共同トレーニングは、観測とラベルの合同分布を推定する一方で、事前トレーニングは観測のみに対して行われる。
共同訓練型ESMは、前訓練型ESMよりもほぼ一貫した性能を示した。
論文 参考訳(メタデータ) (2020-10-25T13:35:23Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。