論文の概要: Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling
- arxiv url: http://arxiv.org/abs/2305.18375v1
- Date: Sun, 28 May 2023 05:38:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 22:03:17.275221
- Title: Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling
- Title(参考訳): ジャンプする学習: ジェネレーティブモデリングのための薄型化と薄型化
- Authors: Tianqi Chen and Mingyuan Zhou
- Abstract要約: ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
- 参考スコア(独自算出の注目度): 69.60713300418467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning to denoise has emerged as a prominent paradigm to design
state-of-the-art deep generative models for natural images. How to use it to
model the distributions of both continuous real-valued data and categorical
data has been well studied in recently proposed diffusion models. However, it
is found in this paper to have limited ability in modeling some other types of
data, such as count and non-negative continuous data, that are often highly
sparse, skewed, heavy-tailed, and/or overdispersed. To this end, we propose
learning to jump as a general recipe for generative modeling of various types
of data. Using a forward count thinning process to construct learning
objectives to train a deep neural network, it employs a reverse count
thickening process to iteratively refine its generation through that network.
We demonstrate when learning to jump is expected to perform comparably to
learning to denoise, and when it is expected to perform better. For example,
learning to jump is recommended when the training data is non-negative and
exhibits strong sparsity, skewness, heavy-tailedness, and/or heterogeneity.
- Abstract(参考訳): 自然画像のための最先端の深層生成モデルを設計するための顕著なパラダイムとして認知学習が登場した。
連続実数値データと分類データの分布をモデル化する方法は,最近提案された拡散モデルにおいてよく研究されている。
しかし,本論文では,数量や非負の連続データといった,しばしばスパース,スキュード,ヘビーテール,および/またはオーバー分散といった,他の種類のデータをモデル化する能力に制限があることが判明した。
そこで本研究では,様々な種類のデータを生成するための一般的なレシピとして,ジャンプ学習を提案する。
ディープニューラルネットワークをトレーニングするための学習目標を構築するために、フォワードカウントシンニングプロセスを使用して、リバースカウント厚みプロセスを使用して、そのネットワークを通じてその生成を反復的に洗練する。
我々は,ジャンプの学習が認知の学習と相容れないパフォーマンスを期待される場合と,それがよりよいパフォーマンスを期待される場合を実証する。
例えば、トレーニングデータが非負の場合、ジャンプの学習が推奨され、強いスパーシリティ、歪み、重く、および/または不均一性を示す。
関連論文リスト
- Heat Death of Generative Models in Closed-Loop Learning [63.83608300361159]
本研究では、独自の学習データセットに加えて、生成したコンテンツをフィードバックする生成モデルの学習ダイナミクスについて検討する。
各イテレーションで十分な量の外部データが導入されない限り、非自明な温度がモデルを退化させることを示す。
論文 参考訳(メタデータ) (2024-04-02T21:51:39Z) - Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Continual Learning of Diffusion Models with Generative Distillation [34.52513912701778]
拡散モデルは画像合成における最先端性能を達成する強力な生成モデルである。
本稿では,拡散モデルの全逆過程を除去する生成蒸留法を提案する。
論文 参考訳(メタデータ) (2023-11-23T14:33:03Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - Learning Sparse Latent Representations for Generator Model [7.467412443287767]
そこで本研究では,ジェネレータモデルの潜在空間に空間空間を強制する教師なし学習手法を提案する。
我々のモデルは1つのトップダウンジェネレータネットワークから成り、潜在変数を観測データにマッピングする。
論文 参考訳(メタデータ) (2022-09-20T18:58:24Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。