論文の概要: Semi-supervised Sequential Generative Models
- arxiv url: http://arxiv.org/abs/2007.00155v1
- Date: Tue, 30 Jun 2020 23:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:03:15.748260
- Title: Semi-supervised Sequential Generative Models
- Title(参考訳): 半教師付きシーケンス生成モデル
- Authors: Michael Teng, Tuan Anh Le, Adam Scibior, Frank Wood
- Abstract要約: 本稿では,個別の潜伏変数を持つ深層生成時系列モデルの学習目標について紹介する。
我々はまず、半教師付き生成モデリングの標準目標をウェイクスリープで拡張することでこの問題を克服する。
最後に,教師の強制にインスパイアされた統一的な目的を導入し,この手法が可変長監視に頑健であることを示す。
- 参考スコア(独自算出の注目度): 16.23492955875404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel objective for training deep generative time-series
models with discrete latent variables for which supervision is only sparsely
available. This instance of semi-supervised learning is challenging for
existing methods, because the exponential number of possible discrete latent
configurations results in high variance gradient estimators. We first overcome
this problem by extending the standard semi-supervised generative modeling
objective with reweighted wake-sleep. However, we find that this approach still
suffers when the frequency of available labels varies between training
sequences. Finally, we introduce a unified objective inspired by
teacher-forcing and show that this approach is robust to variable length
supervision. We call the resulting method caffeinated wake-sleep (CWS) to
emphasize its additional dependence on real data. We demonstrate its
effectiveness with experiments on MNIST, handwriting, and fruit fly trajectory
data.
- Abstract(参考訳): 本稿では, 離散的潜在変数を持つ深部生成時系列モデルの学習のための新しい目的について紹介する。
この半教師付き学習の例は、離散潜在構成の指数的な個数が高分散勾配推定器をもたらすため、既存の手法では困難である。
我々はまず、半教師付き生成モデリングの標準目標をウェイクスリープで拡張することでこの問題を克服する。
しかし、この方法は、利用可能なラベルの頻度がトレーニングシーケンスによって異なる場合にも生じる。
最後に,教師の強制に触発された統一的な目的を導入し,この手法が可変長監視に堅牢であることを示す。
CWS(caffeinated wake-sleep)と呼ばれ、実際のデータへのさらなる依存を強調する。
MNIST, 手書き, フルーツフライトラジェクトリデータを用いた実験により, その効果を実証した。
関連論文リスト
- Temporal Test-Time Adaptation with State-Space Models [4.248760709042802]
テストサンプルにモデルを適用することは、パフォーマンスの低下を軽減するのに役立ちます。
ほとんどの試験時間適応法は、合成汚職シフトに重点を置いている。
本稿では,時相分布シフトに対応する確率的状態空間モデルSTADを提案する。
論文 参考訳(メタデータ) (2024-07-17T11:18:49Z) - MG-TSD: Multi-Granularity Time Series Diffusion Models with Guided Learning Process [26.661721555671626]
本稿では,最先端の予測性能を実現する新しい多粒度時系列(MG-TSD)モデルを提案する。
われわれのアプローチは外部データに頼らず、様々な領域にまたがって汎用的で適用可能である。
論文 参考訳(メタデータ) (2024-03-09T01:15:03Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Tailoring Language Generation Models under Total Variation Distance [55.89964205594829]
ニューラルネットワーク生成の標準パラダイムは、最適化方法として最大推定(MLE)を採用する。
言語生成に適用するための実践的境界を開発する。
本稿では,TVD推定のトレードオフのバランスをとるためのTaiLr の目標について紹介する。
論文 参考訳(メタデータ) (2023-02-26T16:32:52Z) - Semi-Supervised Temporal Action Detection with Proposal-Free Masking [134.26292288193298]
PropOsal-free Temporal mask (SPOT) に基づく新しい半教師付き時間行動検出モデルを提案する。
SPOTは最先端の代替品よりも優れている。
論文 参考訳(メタデータ) (2022-07-14T16:58:47Z) - Distilling Model Failures as Directions in Latent Space [87.30726685335098]
本稿では,モデルの故障モードを自動的に抽出するスケーラブルな方法を提案する。
線形分類器を用いて一貫したエラーパターンを識別し、これらの障害モードを特徴空間内の方向として自然な表現を誘導する。
このフレームワークにより、トレーニングデータセット内の課題のあるサブポピュレーションを発見し、自動的にキャプションし、これらのサブポピュレーションにおけるモデルのパフォーマンスを改善することができることを示す。
論文 参考訳(メタデータ) (2022-06-29T16:35:24Z) - Training Discrete Deep Generative Models via Gapped Straight-Through
Estimator [72.71398034617607]
再サンプリングのオーバーヘッドを伴わずに分散を低減するため, GST (Gapped Straight-Through) 推定器を提案する。
この推定子は、Straight-Through Gumbel-Softmaxの本質的な性質に着想を得たものである。
実験により,提案したGST推定器は,2つの離散的な深部生成モデリングタスクの強いベースラインと比較して,優れた性能を享受できることが示された。
論文 参考訳(メタデータ) (2022-06-15T01:46:05Z) - Robust Disentanglement of a Few Factors at a Time [5.156484100374058]
変分オートエンコーダ(VAE)の整合性向上のための人口ベーストレーニング(PBT)を導入する。
PBT-VAEトレーニングでは、教師なしのモデルスコアとしてUnsupervised Disentanglement Ranking (UDR)を使用し、この方法でトレーニングされたモデルが、生成因子のサブセットのみを一貫して切り離す傾向を示す。
複数のデータセットとメトリクスをまたいで、最先端の教師なしのアンハンジメント性能とロバストネスを著しく改善したことを示す。
論文 参考訳(メタデータ) (2020-10-26T12:34:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。