論文の概要: Reward-Guided Discrete Diffusion via Clean-Sample Markov Chain for Molecule and Biological Sequence Design
- arxiv url: http://arxiv.org/abs/2602.09424v1
- Date: Tue, 10 Feb 2026 05:39:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.386077
- Title: Reward-Guided Discrete Diffusion via Clean-Sample Markov Chain for Molecule and Biological Sequence Design
- Title(参考訳): 分子・生物配列設計のためのクリーンサンプルマルコフ鎖による逆ガイド型離散拡散
- Authors: Prin Phunyaphibarn, Minhyuk Sung,
- Abstract要約: 離散拡散モデルに対する試験時間報酬誘導サンプリング法を提案する。
clean-Sample Markov Chain (CSMC) Smplerは、中間報酬に頼らずにローカル検索を可能にする。
我々の手法は、中間報酬に依存する先行アプローチを一貫して上回る。
- 参考スコア(独自算出の注目度): 25.729441906206997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discrete diffusion models have recently emerged as a powerful class of generative models for chemistry and biology data. In these fields, the goal is to generate various samples with high rewards (e.g., drug-likeness in molecules), making reward-based guidance crucial. Most existing methods are based on guiding the diffusion model using intermediate rewards but tend to underperform since intermediate rewards are noisy due to the non-smooth nature of reward functions used in scientific domains. To address this, we propose Clean-Sample Markov Chain (CSMC) Sampler, a method that performs effective test-time reward-guided sampling for discrete diffusion models, enabling local search without relying on intermediate rewards. CSMC constructs a Markov chain of clean samples using the Metropolis-Hastings algorithm such that its stationary distribution is the target distribution. We design a proposal distribution by sequentially applying the forward and backward diffusion processes, making the acceptance probability tractable. Experiments on molecule and biological sequence generation with various reward functions demonstrate that our method consistently outperforms prior approaches that rely on intermediate rewards.
- Abstract(参考訳): 離散拡散モデルは最近、化学および生物学データのための強力な生成モデルのクラスとして登場した。
これらの分野では、高い報酬(例えば分子の薬物類似性)を持つ様々なサンプルを生成し、報酬に基づくガイダンスを不可欠にすることを目的としている。
既存の手法の多くは、中間報酬を用いた拡散モデルを導くことに基づいているが、科学領域で使われる報酬関数の非滑らかな性質のため、中間報酬はノイズが多いため、性能が劣る傾向がある。
そこで本研究では,離散拡散モデルに対して効率的な実時間報酬誘導サンプリングを行う手法であるCSMCサアンプを提案し,中間報酬に頼らずに局所探索を可能にする。
CSMCは、その定常分布がターゲット分布であるように、メトロポリス・ハスティングスアルゴリズムを用いてクリーンサンプルのマルコフ連鎖を構築する。
本研究では,前方及び後方拡散過程を逐次適用して提案分布を設計し,受理確率を抽出可能とした。
様々な報酬関数を持つ分子および生物学的配列生成の実験は、中間報酬に依存する先行アプローチを一貫して上回っていることを示す。
関連論文リスト
- Discrete Feynman-Kac Correctors [47.62319930071118]
本研究では,離散マスク拡散モデルの生成分布を推定時に制御できるフレームワークを提案する。
連続モンテカルロ (SMC) アルゴリズムを導出し, 訓練された離散拡散モデルを用いて, サンプル分布の温度を制御した。
本稿では,Isingモデルのボルツマン分布からの効率的なサンプリング,コード生成および記憶学習のための言語モデルの性能向上,および報酬型タンパク質配列生成など,フレームワークの有用性について述べる。
論文 参考訳(メタデータ) (2026-01-15T13:55:38Z) - Progressive Inference-Time Annealing of Diffusion Models for Sampling from Boltzmann Densities [93.13866975467549]
拡散に基づくサンプル学習のために, PITA(Progressive Inference-Time Annealing)を提案する。
PITAはボルツマン分布のアナーリングと拡散平滑化という2つの相補的手法を組み合わせたものである。
N-体粒子系、アラニンジペプチド、トリペプチドの平衡サンプリングを可能にする。
論文 参考訳(メタデータ) (2025-06-19T17:14:22Z) - Improved off-policy training of diffusion samplers [93.66433483772055]
本研究では,非正規化密度やエネルギー関数を持つ分布からサンプルを抽出する拡散モデルの訓練問題について検討する。
シミュレーションに基づく変分法や非政治手法など,拡散構造推論手法のベンチマークを行った。
我々の結果は、過去の研究の主張に疑問を投げかけながら、既存のアルゴリズムの相対的な利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-07T18:51:49Z) - Diffusive Gibbs Sampling [40.1197715949575]
本稿では,ディフューシブギブズサンプリング(Diffusive Gibbs Sampling, DiGS)を提案する。
DiGSは拡散モデルにおける最近の発展を統合し、ガウスの畳み込みを利用して補助雑音分布を生成する。
新規なメトロポリス・ウィスティン・ギブス法は, サンプリング工程における混合性を高めるために提案されている。
論文 参考訳(メタデータ) (2024-02-05T13:47:41Z) - Towards Controllable Diffusion Models via Reward-Guided Exploration [15.857464051475294]
強化学習(RL)による拡散モデルの学習段階を導く新しい枠組みを提案する。
RLは、政策そのものではなく、指数スケールの報酬に比例したペイオフ分布からのサンプルによる政策勾配を計算することができる。
3次元形状と分子生成タスクの実験は、既存の条件拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-14T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。