論文の概要: Learning Stationary Markov Processes with Contrastive Adjustment
- arxiv url: http://arxiv.org/abs/2303.05497v1
- Date: Thu, 9 Mar 2023 18:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 13:39:09.233701
- Title: Learning Stationary Markov Processes with Contrastive Adjustment
- Title(参考訳): コントラスト調整による定常マルコフ過程の学習
- Authors: Ludvig Bergenstr{\aa}hle, Jens Lagergren, Joakim Lundeberg
- Abstract要約: 本稿では,マルコフ遷移カーネルの学習のための新しい最適化アルゴリズムであるエンファンコントラスト適応アルゴリズムを提案する。
コントラスト調整は特定の遷移分布の族に限らず、連続状態空間と離散状態空間の両方でデータをモデル化するのに使うことができる。
コントラスト調整は人-コンピュータ設計プロセスにおいて非常に有用であることを示す。
- 参考スコア(独自算出の注目度): 2.76240219662896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new optimization algorithm, termed \emph{contrastive
adjustment}, for learning Markov transition kernels whose stationary
distribution matches the data distribution. Contrastive adjustment is not
restricted to a particular family of transition distributions and can be used
to model data in both continuous and discrete state spaces. Inspired by recent
work on noise-annealed sampling, we propose a particular transition operator,
the \emph{noise kernel}, that can trade mixing speed for sample fidelity. We
show that contrastive adjustment is highly valuable in human-computer design
processes, as the stationarity of the learned Markov chain enables local
exploration of the data manifold and makes it possible to iteratively refine
outputs by human feedback. We compare the performance of noise kernels trained
with contrastive adjustment to current state-of-the-art generative models and
demonstrate promising results on a variety of image synthesis tasks.
- Abstract(参考訳): 定常分布がデータ分布と一致するマルコフ遷移核を学習するための新しい最適化アルゴリズムである \emph{contrastive adjustment} を導入する。
コントラスト調整は特定の遷移分布の族に限らず、連続状態空間と離散状態空間の両方でデータをモデル化するのに使うことができる。
ノイズアンネールサンプリングに関する最近の研究に触発されて、サンプル忠実度と混合速度を交換できる特定の遷移演算子である \emph{noise kernel} を提案する。
学習されたマルコフ連鎖の定常性はデータ多様体の局所的な探索を可能にし、人間のフィードバックによって出力を反復的に洗練することができる。
コントラスト調整で訓練したノイズカーネルの性能を,現在の最先端生成モデルと比較し,様々な画像合成タスクにおける有望な結果を示す。
関連論文リスト
- Efficient Diffusion Transformer with Step-wise Dynamic Attention Mediators [83.48423407316713]
本稿では,クエリとキーを別々に扱うために,追加の仲介者トークンを組み込んだ新しい拡散トランスフォーマーフレームワークを提案する。
本モデルでは, 正確な非曖昧な段階を呈し, 詳細に富んだ段階へと徐々に遷移する。
本手法は,最近のSiTと統合した場合に,最先端のFIDスコア2.01を達成する。
論文 参考訳(メタデータ) (2024-08-11T07:01:39Z) - Ai-Sampler: Adversarial Learning of Markov kernels with involutive maps [28.229819253644862]
本稿では,マルコフ連鎖の遷移核のパラメータ化と訓練を行い,効率的なサンプリングと良好な混合を実現する方法を提案する。
この訓練方法は、チェーンの定常分布とデータの経験分布との総変動距離を最小化する。
論文 参考訳(メタデータ) (2024-06-04T17:00:14Z) - Score-based Generative Models with Adaptive Momentum [40.84399531998246]
変換過程を高速化する適応運動量サンプリング法を提案する。
提案手法は,2倍から5倍の速度で,より忠実な画像/グラフを小さなサンプリングステップで作成できることを示す。
論文 参考訳(メタデータ) (2024-05-22T15:20:27Z) - ALERT-Transformer: Bridging Asynchronous and Synchronous Machine Learning for Real-Time Event-based Spatio-Temporal Data [8.660721666999718]
非同期センシングと同期処理を組み合わせたハイブリッドパイプラインを提案する。
競争相手よりもレイテンシの低い最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-02-02T13:17:19Z) - Observation-Guided Diffusion Probabilistic Models [41.749374023639156]
観測誘導拡散確率モデル(OGDM)と呼ばれる新しい拡散に基づく画像生成法を提案する。
本手法は,観測プロセスの指導をマルコフ連鎖と統合することにより,トレーニング目標を再構築する。
本研究では,強力な拡散モデルベースライン上での多様な推論手法を用いたトレーニングアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2023-10-06T06:29:06Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - Diffusion-Based Representation Learning [65.55681678004038]
教師付き信号のない表現学習を実現するために,デノナイズスコアマッチングフレームワークを拡張した。
対照的に、拡散に基づく表現学習は、デノナイジングスコアマッチング目的の新しい定式化に依存している。
同じ手法を用いて,半教師付き画像分類における最先端モデルの改善を実現する無限次元潜在符号の学習を提案する。
論文 参考訳(メタデータ) (2021-05-29T09:26:02Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。