論文の概要: Sample Efficient Generative Molecular Optimization with Joint Self-Improvement
- arxiv url: http://arxiv.org/abs/2602.10984v1
- Date: Wed, 11 Feb 2026 16:13:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.140836
- Title: Sample Efficient Generative Molecular Optimization with Joint Self-Improvement
- Title(参考訳): 共同自己改善による高効率生成分子最適化
- Authors: Serra Korkmaz, Adam Izdebski, Jonathan Pirnay, Rasmus Møller-Larsen, Michal Kmicikiewicz, Pankhil Gawade, Dominik G. Grimm, Ewa Szczurek,
- Abstract要約: 生成分子最適化は、既存の化合物を超える性質を持つ分子を設計することを目的としている。
本稿では,共同生成予測モデルと自己改善サンプリングスキームの利点を生かした,共同自己改善手法を提案する。
共同自己改善は、限られた評価予算の下で最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 0.878320610914317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative molecular optimization aims to design molecules with properties surpassing those of existing compounds. However, such candidates are rare and expensive to evaluate, yielding sample efficiency essential. Additionally, surrogate models introduced to predict molecule evaluations, suffer from distribution shift as optimization drives candidates increasingly out-of-distribution. To address these challenges, we introduce Joint Self-Improvement, which benefits from (i) a joint generative-predictive model and (ii) a self-improving sampling scheme. The former aligns the generator with the surrogate, alleviating distribution shift, while the latter biases the generative part of the joint model using the predictive one to efficiently generate optimized molecules at inference-time. Experiments across offline and online molecular optimization benchmarks demonstrate that Joint Self-Improvement outperforms state-of-the-art methods under limited evaluation budgets.
- Abstract(参考訳): 生成分子最適化は、既存の化合物を超える性質を持つ分子を設計することを目的としている。
しかし、このような候補は稀で、評価に費用がかかるため、サンプル効率が不可欠である。
さらに、分子評価を予測するために導入された代理モデルでは、最適化によって候補が分配不能になるにつれて、分布シフトに悩まされる。
これらの課題に対処するために、私たちは共同自己改善を導入します。
一 共同生成予測モデル及び共同生成予測モデル
(II)自己改善型サンプリング方式
前者は、生成体を代理体と整列させ、分布シフトを緩和し、後者は予測子を用いて関節モデルの生成部を偏り、推論時に最適化された分子を効率的に生成する。
オフラインおよびオンライン分子最適化ベンチマークによる実験により、ジョイント自己改善は、限られた評価予算の下で最先端の手法より優れていることが示された。
関連論文リスト
- Divergence Minimization Preference Optimization for Diffusion Model Alignment [66.31417479052774]
Divergence Minimization Preference Optimization (DMPO) は、逆KL分散を最小化して拡散モデルを整列する原理的手法である。
DMPOは、異なるベースモデルとテストセットで既存のテクニックを一貫して上回り、適合させることができる。
論文 参考訳(メタデータ) (2025-07-10T07:57:30Z) - Iterative Distillation for Reward-Guided Fine-Tuning of Diffusion Models in Biomolecular Design [58.8094854658848]
生体分子設計における報酬誘導生成のための微調整拡散モデルの問題に対処する。
本稿では,拡散モデルによる任意の報酬関数の最適化を可能にする,反復蒸留に基づく微調整フレームワークを提案する。
KLの発散最小化と相まって,既存のRL法と比較してトレーニングの安定性とサンプル効率を向上させる。
論文 参考訳(メタデータ) (2025-07-01T05:55:28Z) - Synergistic Benefits of Joint Molecule Generation and Property Prediction [6.865957689890204]
Hyformerは、生成関数と予測関数をブレンドするトランスフォーマーベースのジョイントモデルである。
我々はHyformerが分子生成と特性予測に同時に最適化されていることを示す。
また,新規な抗菌性ペプチドの発見を目的とした医薬品設計における共同学習のメリットを実証した。
論文 参考訳(メタデータ) (2025-04-23T09:36:46Z) - Efficient Generation of Molecular Clusters with Dual-Scale Equivariant Flow Matching [5.909830898977327]
トレーニングと推論を粗い粒度と全原子ステージに分離する2次元フローマッチング法を開発した。
MDシミュレーションにより得られたY6分子クラスターのデータセット上で,本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-10-10T02:17:27Z) - Aligning Target-Aware Molecule Diffusion Models with Exact Energy Optimization [147.7899503829411]
AliDiffは、事前訓練されたターゲット拡散モデルと望ましい機能特性を整合させる新しいフレームワークである。
最先端の結合エネルギーを持つ分子を最大7.07 Avg. Vina Scoreで生成することができる。
論文 参考訳(メタデータ) (2024-07-01T06:10:29Z) - Controlled Molecule Generator for Optimizing Multiple Chemical
Properties [9.10095508718581]
2つの制約ネットワークを持つトランスフォーマーに基づく新しい最適化された分子生成モデルを提案する。
実験により,提案モデルでは,複数の特性を同時に最適化する上で,最先端モデルよりも有意な差が認められた。
論文 参考訳(メタデータ) (2020-10-26T21:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。