論文の概要: Compositional Sculpting of Iterative Generative Processes
- arxiv url: http://arxiv.org/abs/2309.16115v1
- Date: Thu, 28 Sep 2023 02:46:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 18:18:40.496116
- Title: Compositional Sculpting of Iterative Generative Processes
- Title(参考訳): 反復生成過程の組成的彫刻
- Authors: Timur Garipov, Sebastiaan De Peuter, Ge Yang, Vikas Garg, Samuel
Kaski, Tommi Jaakkola
- Abstract要約: GFlowNet拡散モデルのような反復生成過程を構成する上での重要な課題は、ターゲット分布を実現することである。
本稿では、生成プロセスを定義するための繊細なプロセスを定義するための一般的なガイダンスを提案する。
- 参考スコア(独自算出の注目度): 24.356488668784838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High training costs of generative models and the need to fine-tune them for
specific tasks have created a strong interest in model reuse and composition. A
key challenge in composing iterative generative processes, such as GFlowNets
and diffusion models, is that to realize the desired target distribution, all
steps of the generative process need to be coordinated, and satisfy delicate
balance conditions. In this work, we propose Compositional Sculpting: a general
approach for defining compositions of iterative generative processes. We then
introduce a method for sampling from these compositions built on classifier
guidance. We showcase ways to accomplish compositional sculpting in both
GFlowNets and diffusion models. We highlight two binary operations
$\unicode{x2014}$ the harmonic mean ($p_1 \otimes p_2$) and the contrast ($p_1
\unicode{x25D1}\,p_2$) between pairs, and the generalization of these
operations to multiple component distributions. We offer empirical results on
image and molecular generation tasks.
- Abstract(参考訳): 生成モデルの高いトレーニングコストと特定のタスクに対する微調整の必要性は、モデルの再利用と構成に強い関心をもたらした。
GFlowNetsや拡散モデルのような反復生成プロセスを構成する上で重要な課題は、望ましい目標分布を実現するためには、生成プロセスのすべてのステップを調整し、微妙なバランス条件を満たす必要があることである。
本稿では,反復生成プロセスの合成を定義するための一般的な手法である合成彫刻を提案する。
次に,分類器指導に基づくこれらの構成からサンプリングする手法を提案する。
我々はGFlowNetと拡散モデルの両方で合成彫刻を実現する方法を紹介する。
2つのバイナリ演算に$\unicode{x2014}$という調和平均(p_1 \otimes p_2$)と、ペア間のコントラスト(p_1 \unicode{x25D1}\,p_2$)と、これらの演算を複数のコンポーネント分布に一般化する。
画像および分子生成タスクに関する実験結果を提供する。
関連論文リスト
- IterComp: Iterative Composition-Aware Feedback Learning from Model Gallery for Text-to-Image Generation [70.8833857249951]
IterCompは、複数のモデルから合成対応モデルの好みを集約する新しいフレームワークである。
クローズドループ方式で構成性を向上する反復的フィードバック学習法を提案する。
IterCompは、拡散モデルと合成生成のための報酬フィードバック学習の新たな研究の道を開く。
論文 参考訳(メタデータ) (2024-10-09T17:59:13Z) - InterHandGen: Two-Hand Interaction Generation via Cascaded Reverse Diffusion [53.90516061351706]
両手インタラクションに先立って生成を学習する新しいフレームワークであるInterHandGenを提案する。
サンプリングにアンチペネティフィケーションと合成フリーガイダンスを組み合わせることで、プラウシブルな生成を可能にする。
本手法は, 妥当性と多様性の観点から, ベースライン生成モデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2024-03-26T06:35:55Z) - Language-free Compositional Action Generation via Decoupling Refinement [67.50452446686725]
本稿では,言語補助に頼らずに作曲行動を生成する新しい枠組みを提案する。
このアプローチは,アクション結合,条件付きアクション生成,デカップリングリファインメントという3つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-07-07T12:00:38Z) - Compositional Generalisation with Structured Reordering and Fertility
Layers [121.37328648951993]
Seq2seqモデルは構成一般化に苦しむことが示されている。
本稿では、2つの構造演算を構成するフレキシブルなエンドツーエンドの微分可能なニューラルモデルを提案する。
論文 参考訳(メタデータ) (2022-10-06T19:51:31Z) - Categorical semantics of compositional reinforcement learning [25.752647944862183]
強化学習(RL)はしばしば、問題をサブタスクに分解し、これらのタスクで学習した振る舞いを構成する必要がある。
分類的視点を用いたRLの補間理論の枠組みを開発する。
mathsfMDP$は特定の繊維製品やプッシュアウトなどの自然な構成操作を許容することを示す。
論文 参考訳(メタデータ) (2022-08-29T15:51:36Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - Set Based Stochastic Subsampling [85.5331107565578]
本稿では,2段階間ニューラルサブサンプリングモデルを提案する。
画像分類,画像再構成,機能再構築,少数ショット分類など,様々なタスクにおいて,低いサブサンプリング率で関連ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-25T07:36:47Z) - From abstract items to latent spaces to observed data and back:
Compositional Variational Auto-Encoder [0.0]
条件付き生成モデルは現在、機械学習に不可欠なツールとして認められている。
提案したCompVAEは、データを自然なマルチアンサンブルリスト構造で処理する。
観測情報と記号情報の両方を活用する潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-22T08:30:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。