論文の概要: Masked Conditioning for Deep Generative Models
- arxiv url: http://arxiv.org/abs/2505.16725v1
- Date: Thu, 22 May 2025 14:33:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.360329
- Title: Masked Conditioning for Deep Generative Models
- Title(参考訳): 深部生成モデルのためのマスク条件付け
- Authors: Phillip Mueller, Jannik Wiese, Sebastian Mueller, Lars Mikelsons,
- Abstract要約: 生成モデルが疎結合な混合型データを扱うことを可能にする新しいマスク条件付き手法を提案する。
限られたデータに基づいて訓練された小さなモデルと、事前訓練された大規模な基礎モデルを組み合わせることで、生成品質を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Datasets in engineering domains are often small, sparsely labeled, and contain numerical as well as categorical conditions. Additionally. computational resources are typically limited in practical applications which hinders the adoption of generative models for engineering tasks. We introduce a novel masked-conditioning approach, that enables generative models to work with sparse, mixed-type data. We mask conditions during training to simulate sparse conditions at inference time. For this purpose, we explore the use of various sparsity schedules that show different strengths and weaknesses. In addition, we introduce a flexible embedding that deals with categorical as well as numerical conditions. We integrate our method into an efficient variational autoencoder as well as a latent diffusion model and demonstrate the applicability of our approach on two engineering-related datasets of 2D point clouds and images. Finally, we show that small models trained on limited data can be coupled with large pretrained foundation models to improve generation quality while retaining the controllability induced by our conditioning scheme.
- Abstract(参考訳): エンジニアリング領域のデータセットは、しばしば小さく、わずかにラベル付けされ、分類条件だけでなく数値も含んでいる。
さらに。
計算資源は通常、工学的なタスクに生成モデルを採用するのを妨げる実用的な応用に限られる。
生成モデルが疎結合な混合型データを扱うことを可能にする新しいマスク条件付き手法を提案する。
推論時にスパース条件をシミュレートするためにトレーニング中の条件をマスクする。
そこで本研究では,異なる強みと弱みを示す様々な疎度スケジュールの利用について検討する。
さらに,分類や数値条件を扱うフレキシブルな埋め込みも導入する。
提案手法を効率の良い変分オートエンコーダと潜時拡散モデルに統合し,2次元点雲と画像の2つのエンジニアリング関連データセットへのアプローチの適用性を実証する。
最後に、制約データに基づいて訓練された小さなモデルと、事前訓練された大規模な基礎モデルを組み合わせることで、条件付きスキームによって誘導される制御性を保ちながら、生成品質を向上させることができることを示す。
関連論文リスト
- [MASK] is All You Need [28.90875822599164]
離散状態モデルを用いてMasked Generative と Non-autoregressive Diffusion を接続する。
離散状態モデルで[MASK]を活用することで、Masked Generative と Non-autoregressive Diffusion モデルを橋渡しできる。
論文 参考訳(メタデータ) (2024-12-09T18:59:56Z) - On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - Latent variable model for high-dimensional point process with structured missingness [4.451479907610764]
縦断データは医療、社会学、地震学など多くの分野で重要である。
実世界のデータセットは高次元であり、構造化された欠陥パターンを含み、測定時間ポイントは未知のプロセスによって管理される。
これらの制限に対処可能な、柔軟で効率的な潜在変数モデルを提案する。
論文 参考訳(メタデータ) (2024-02-08T15:41:48Z) - Conditional Generation from Unconditional Diffusion Models using
Denoiser Representations [94.04631421741986]
本稿では,学習したデノイザネットワークの内部表現を用いて,事前学習した非条件拡散モデルを新しい条件に適用することを提案する。
提案手法により生成した合成画像を用いたTiny ImageNetトレーニングセットの強化により,ResNetベースラインの分類精度が最大8%向上することを示す。
論文 参考訳(メタデータ) (2023-06-02T20:09:57Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Learning Consistent Deep Generative Models from Sparse Data via
Prediction Constraints [16.48824312904122]
我々は変分オートエンコーダやその他の深層生成モデルを学ぶための新しいフレームワークを開発する。
これら2つのコントリビューション -- 予測制約と一貫性制約 -- が,画像分類性能の有望な向上につながることを示す。
論文 参考訳(メタデータ) (2020-12-12T04:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。