論文の概要: Reward-Guided Discrete Diffusion via Clean-Sample Markov Chain for Molecule and Biological Sequence Design
- arxiv url: http://arxiv.org/abs/2602.09424v1
- Date: Tue, 10 Feb 2026 05:39:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.386077
- Title: Reward-Guided Discrete Diffusion via Clean-Sample Markov Chain for Molecule and Biological Sequence Design
- Title(参考訳): 分子・生物配列設計のためのクリーンサンプルマルコフ鎖による逆ガイド型離散拡散
- Authors: Prin Phunyaphibarn, Minhyuk Sung,
- Abstract要約: 離散拡散モデルに対する試験時間報酬誘導サンプリング法を提案する。
clean-Sample Markov Chain (CSMC) Smplerは、中間報酬に頼らずにローカル検索を可能にする。
我々の手法は、中間報酬に依存する先行アプローチを一貫して上回る。
- 参考スコア(独自算出の注目度): 25.729441906206997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discrete diffusion models have recently emerged as a powerful class of generative models for chemistry and biology data. In these fields, the goal is to generate various samples with high rewards (e.g., drug-likeness in molecules), making reward-based guidance crucial. Most existing methods are based on guiding the diffusion model using intermediate rewards but tend to underperform since intermediate rewards are noisy due to the non-smooth nature of reward functions used in scientific domains. To address this, we propose Clean-Sample Markov Chain (CSMC) Sampler, a method that performs effective test-time reward-guided sampling for discrete diffusion models, enabling local search without relying on intermediate rewards. CSMC constructs a Markov chain of clean samples using the Metropolis-Hastings algorithm such that its stationary distribution is the target distribution. We design a proposal distribution by sequentially applying the forward and backward diffusion processes, making the acceptance probability tractable. Experiments on molecule and biological sequence generation with various reward functions demonstrate that our method consistently outperforms prior approaches that rely on intermediate rewards.
- Abstract(参考訳): 離散拡散モデルは最近、化学および生物学データのための強力な生成モデルのクラスとして登場した。
これらの分野では、高い報酬(例えば分子の薬物類似性)を持つ様々なサンプルを生成し、報酬に基づくガイダンスを不可欠にすることを目的としている。
既存の手法の多くは、中間報酬を用いた拡散モデルを導くことに基づいているが、科学領域で使われる報酬関数の非滑らかな性質のため、中間報酬はノイズが多いため、性能が劣る傾向がある。
そこで本研究では,離散拡散モデルに対して効率的な実時間報酬誘導サンプリングを行う手法であるCSMCサアンプを提案し,中間報酬に頼らずに局所探索を可能にする。
CSMCは、その定常分布がターゲット分布であるように、メトロポリス・ハスティングスアルゴリズムを用いてクリーンサンプルのマルコフ連鎖を構築する。
本研究では,前方及び後方拡散過程を逐次適用して提案分布を設計し,受理確率を抽出可能とした。
様々な報酬関数を持つ分子および生物学的配列生成の実験は、中間報酬に依存する先行アプローチを一貫して上回っていることを示す。
関連論文リスト
- Discrete Feynman-Kac Correctors [47.62319930071118]
本研究では,離散マスク拡散モデルの生成分布を推定時に制御できるフレームワークを提案する。
連続モンテカルロ (SMC) アルゴリズムを導出し, 訓練された離散拡散モデルを用いて, サンプル分布の温度を制御した。
本稿では,Isingモデルのボルツマン分布からの効率的なサンプリング,コード生成および記憶学習のための言語モデルの性能向上,および報酬型タンパク質配列生成など,フレームワークの有用性について述べる。
論文 参考訳(メタデータ) (2026-01-15T13:55:38Z) - Distillation of Discrete Diffusion by Exact Conditional Distribution Matching [9.460409527892345]
本稿では, 空調分布マッチングに基づく簡易かつ原理的な蒸留法を提案する。
我々は,この構造を利用して,事前学習した教師と低NFE学生の条件分布を直接一致させる蒸留目標を定義する。
論文 参考訳(メタデータ) (2025-12-15T00:16:10Z) - Consistent Sampling and Simulation: Molecular Dynamics with Energy-Based Diffusion Models [50.77646970127369]
本稿では,Fokker-Planck由来の正規化項を用いたエネルギーベース拡散モデルを提案する。
高速折りたたみタンパク質を含む複数の生体分子系をサンプリング・シミュレートし,本手法を実証する。
論文 参考訳(メタデータ) (2025-06-20T16:38:29Z) - Progressive Inference-Time Annealing of Diffusion Models for Sampling from Boltzmann Densities [93.13866975467549]
拡散に基づくサンプル学習のために, PITA(Progressive Inference-Time Annealing)を提案する。
PITAはボルツマン分布のアナーリングと拡散平滑化という2つの相補的手法を組み合わせたものである。
N-体粒子系、アラニンジペプチド、トリペプチドの平衡サンプリングを可能にする。
論文 参考訳(メタデータ) (2025-06-19T17:14:22Z) - On scalable and efficient training of diffusion samplers [31.34103908109394]
データがない場合、非正規化エネルギー分布からサンプルを採取するために拡散モデルを訓練することの課題に対処する。
そこで我々は,従来の強力なサンプリング手法と拡散サンプリングを適切に調和させる,スケーラブルでサンプル効率のよいフレームワークを提案する。
本手法は,拡散サンプリングの標準ベンチマークにおける試料効率を大幅に向上し,高次元問題や実世界の分子コンホメータ生成に優れる。
論文 参考訳(メタデータ) (2025-05-26T06:16:34Z) - Accelerated Diffusion Models via Speculative Sampling [89.43940130493233]
投機的サンプリングは、大規模言語モデルにおける推論を加速する一般的な手法である。
我々は投機的サンプリングを拡散モデルに拡張し、連続したベクトル値のマルコフ連鎖を介してサンプルを生成する。
本稿では,ドラフトモデルをトレーニングする必要のない,シンプルで効果的なアプローチを含む,さまざまなドラフト戦略を提案する。
論文 参考訳(メタデータ) (2025-01-09T16:50:16Z) - Iterated Denoising Energy Matching for Sampling from Boltzmann Densities [109.23137009609519]
反復Denoising Energy Matching (iDEM)
iDEMは,拡散型サンプリング装置から高モデル密度のサンプリング領域を (I) 交換し, (II) それらのサンプルをマッチング目的に使用した。
提案手法は,全測定値の最先端性能を達成し,2~5倍の速さでトレーニングを行う。
論文 参考訳(メタデータ) (2024-02-09T01:11:23Z) - Improved off-policy training of diffusion samplers [93.66433483772055]
本研究では,非正規化密度やエネルギー関数を持つ分布からサンプルを抽出する拡散モデルの訓練問題について検討する。
シミュレーションに基づく変分法や非政治手法など,拡散構造推論手法のベンチマークを行った。
我々の結果は、過去の研究の主張に疑問を投げかけながら、既存のアルゴリズムの相対的な利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-07T18:51:49Z) - Diffusive Gibbs Sampling [40.1197715949575]
本稿では,ディフューシブギブズサンプリング(Diffusive Gibbs Sampling, DiGS)を提案する。
DiGSは拡散モデルにおける最近の発展を統合し、ガウスの畳み込みを利用して補助雑音分布を生成する。
新規なメトロポリス・ウィスティン・ギブス法は, サンプリング工程における混合性を高めるために提案されている。
論文 参考訳(メタデータ) (2024-02-05T13:47:41Z) - Towards Controllable Diffusion Models via Reward-Guided Exploration [15.857464051475294]
強化学習(RL)による拡散モデルの学習段階を導く新しい枠組みを提案する。
RLは、政策そのものではなく、指数スケールの報酬に比例したペイオフ分布からのサンプルによる政策勾配を計算することができる。
3次元形状と分子生成タスクの実験は、既存の条件拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-14T13:51:26Z) - Particle Dynamics for Learning EBMs [83.59335980576637]
エネルギーベースモデリングは教師なし学習への有望なアプローチであり、単一のモデルから多くの下流アプリケーションを生み出す。
コントラスト的アプローチ(contrastive approach)"でエネルギーベースモデルを学習する際の主な困難は、各イテレーションで現在のエネルギー関数からサンプルを生成することである。
本稿では,これらのサンプルを取得し,現行モデルからの粗大なMCMCサンプリングを回避するための代替手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T23:41:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。