論文の概要: Touring sampling with pushforward maps
- arxiv url: http://arxiv.org/abs/2311.13845v2
- Date: Tue, 20 Feb 2024 18:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 20:30:59.778957
- Title: Touring sampling with pushforward maps
- Title(参考訳): プッシュフォワードマップを用いたツアーサンプリング
- Authors: Vivien Cabannes, Charles Arnal
- Abstract要約: 本稿では、生成モデル設定における多くのサンプリングアプローチをレビューし、整理するために理論的スタンスをとる。
拡散モデルを用いたサンプリングにおける現在の課題のいくつかを克服するのに役立つかもしれない。
- 参考スコア(独自算出の注目度): 3.5897534810405403
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The number of sampling methods could be daunting for a practitioner looking
to cast powerful machine learning methods to their specific problem. This paper
takes a theoretical stance to review and organize many sampling approaches in
the ``generative modeling'' setting, where one wants to generate new data that
are similar to some training examples. By revealing links between existing
methods, it might prove useful to overcome some of the current challenges in
sampling with diffusion models, such as long inference time due to diffusion
simulation, or the lack of diversity in generated samples.
- Abstract(参考訳): 強力な機械学習手法を特定の問題に当てはめようとしている実践者にとって、サンプリングメソッドの数は恐ろしいかもしれない。
本稿では,「世代モデリング」設定における多くのサンプリング手法の見直しと整理に理論的スタンスを採り入れ,いくつかのトレーニング例に類似した新しいデータを作成したいと考えている。
既存の手法間のリンクを明らかにすることで、拡散シミュレーションによる長い推論時間や生成されたサンプルの多様性の欠如といった、現在の拡散モデルによるサンプリングの課題を克服できる可能性がある。
関連論文リスト
- GUIDE: Guidance-based Incremental Learning with Diffusion Models [21.259034167927975]
既存の生成戦略は、生成モデルからランダムにリハーサル例をサンプリングすることで破滅的忘れと戦う。
このギャップを拡散モデルと誘導手法を統合することで橋渡しし、継続的に訓練されたモデルで忘れられた情報を対象としたリハーサル例を作成することを提案する。
実験の結果,GUIDEは破滅的忘れを著しく減らし,従来のランダムサンプリング手法より優れ,生成的再生を伴う継続的な学習における最近の最先端手法を超越した。
論文 参考訳(メタデータ) (2024-03-06T18:47:32Z) - On diffusion models for amortized inference: Benchmarking and improving
stochastic control and sampling [96.7808454149545]
本研究では,非正規化密度やエネルギー関数を持つ分布からサンプルを抽出する拡散モデルの訓練問題について検討する。
シミュレーションに基づく変分法や非政治手法など,拡散構造推論手法のベンチマークを行った。
我々の結果は、過去の研究の主張に疑問を投げかけながら、既存のアルゴリズムの相対的な利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-07T18:51:49Z) - Stable generative modeling using diffusion maps [0.24578723416255752]
拡散写像とランゲヴィン力学を組み合わせた生成モデルを提案する。
拡散マップは、利用可能なトレーニングサンプルからのドリフト項を近似するために使用される。
トレーニングサンプルの凸部内に生成したサンプルが残ることを保証し, 新たな分割ステップ方式を導入する。
論文 参考訳(メタデータ) (2024-01-09T06:15:45Z) - Fast Sampling via De-randomization for Discrete Diffusion Models [52.554915711265856]
本稿では, 離散拡散モデルの高速化に繋がる非ランダム化拡散過程を提案する。
提案手法は, ニューラルネットワークに対する関数評価の回数を大幅に削減し, サンプリング処理を高速化する。
自然言語生成および機械翻訳タスクの実験は,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-14T18:14:11Z) - Leveraging Diffusion Disentangled Representations to Mitigate Shortcuts
in Underspecified Visual Tasks [92.32670915472099]
拡散確率モデル(DPM)を用いた合成カウンターファクトの生成を利用したアンサンブルの多様化フレームワークを提案する。
拡散誘導型分散化は,データ収集を必要とする従来の手法に匹敵するアンサンブル多様性を達成し,ショートカットからの注意を回避できることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:37:52Z) - Efficient Multimodal Sampling via Tempered Distribution Flow [11.36635610546803]
我々はTemperFlowと呼ばれる新しいタイプのトランスポートベースサンプリング手法を開発した。
種々の実験により, 従来の手法と比較して, 新規サンプリング器の優れた性能が示された。
画像生成などの最新のディープラーニングタスクに応用例を示す。
論文 参考訳(メタデータ) (2023-04-08T06:40:06Z) - Reduce, Reuse, Recycle: Compositional Generation with Energy-Based
Diffusion Models and MCMC [106.06185677214353]
拡散モデルは、多くの領域において、生成モデリングの一般的なアプローチとなっている。
本稿では,新しい構成演算子の利用を可能にする拡散モデルのエネルギーベースパラメータ化を提案する。
これらのサンプルは、幅広い問題にまたがって構成生成の顕著な改善につながっている。
論文 参考訳(メタデータ) (2023-02-22T18:48:46Z) - Example-Based Sampling with Diffusion Models [7.943023838493658]
画像生成のための拡散モデルは、例から点集合を生成する方法を学ぶのに適している。
拡散モデルを用いて既存のサンプルを模した2次元点集合を観測点集合から生成する方法を提案する。
我々は、我々のアプローチの微分可能性を用いて、特性を強制する点集合を最適化する方法を実証する。
論文 参考訳(メタデータ) (2023-02-10T08:35:17Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - AutoSampling: Search for Effective Data Sampling Schedules [118.20014773014671]
モデル学習のためのサンプリングスケジュールを自動的に学習するAutoSampling法を提案する。
提案手法の有効性を示す様々な画像分類タスクに本手法を適用した。
論文 参考訳(メタデータ) (2021-05-28T09:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。