論文の概要: Refine Drugs, Don't Complete Them: Uniform-Source Discrete Flows for Fragment-Based Drug Discovery
- arxiv url: http://arxiv.org/abs/2509.26405v1
- Date: Tue, 30 Sep 2025 15:34:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.18678
- Title: Refine Drugs, Don't Complete Them: Uniform-Source Discrete Flows for Fragment-Based Drug Discovery
- Title(参考訳): 薬品の精製, 完ぺきではない: フラグメントをベースとした創薬のための一様ソースの離散フロー
- Authors: Benno Kaech, Luis Wyss, Karsten Borgwardt, Gianvito Grasso,
- Abstract要約: InVirtuoGenは,de novo と fragment-constrained 生成のための断片化SMILESの離散フロー生成モデルである。
本稿では,遺伝的アルゴリズムと遺伝的特性最適化の微調整戦略を組み合わせたハイブリッド手法を提案する。
提案手法は,タスク全体にわたるトップ10のAUCによって測定された,実用的分子最適化ベンチマークの最先端を新たに設定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce InVirtuoGen, a discrete flow generative model for fragmented SMILES for de novo and fragment-constrained generation, and target-property/lead optimization of small molecules. The model learns to transform a uniform source over all possible tokens into the data distribution. Unlike masked models, its training loss accounts for predictions on all sequence positions at every denoising step, shifting the generation paradigm from completion to refinement, and decoupling the number of sampling steps from the sequence length. For \textit{de novo} generation, InVirtuoGen achieves a stronger quality-diversity pareto frontier than prior fragment-based models and competitive performance on fragment-constrained tasks. For property and lead optimization, we propose a hybrid scheme that combines a genetic algorithm with a Proximal Property Optimization fine-tuning strategy adapted to discrete flows. Our approach sets a new state-of-the-art on the Practical Molecular Optimization benchmark, measured by top-10 AUC across tasks, and yields higher docking scores in lead optimization than previous baselines. InVirtuoGen thus establishes a versatile generative foundation for drug discovery, from early hit finding to multi-objective lead optimization. We further contribute to open science by releasing pretrained checkpoints and code, making our results fully reproducible\footnote{https://github.com/invirtuolabs/InVirtuoGen_results}.
- Abstract(参考訳): InVirtuoGen, de novo および fragment-constrained 生成のための断片化SMILES の離散フロー生成モデル,および小分子のターゲット-プロパティ/リード最適化について紹介する。
モデルは、あらゆる可能なトークンに対して均一なソースをデータ分散に変換することを学習する。
マスク付きモデルとは異なり、トレーニング損失は、各デノナイジングステップにおける全てのシーケンス位置の予測、生成パラダイムの完成から洗練へのシフト、サンプリングステップの数をシーケンスの長さから分離する。
textit{de novo} 生成では、InVirtuoGen は以前のフラグメントベースモデルよりも、より高品質なパーエトフロンティアを実現し、フラグメント制約されたタスク上での競合性能を実現している。
遺伝的アルゴリズムと離散フローに適応した遺伝的特性最適化の微調整戦略を組み合わせたハイブリッド手法を提案する。
提案手法は,タスク全体にわたるトップ10のAUCによって測定され,従来の基準値よりも高いドッキングスコアが得られた,実用的分子最適化ベンチマークに基づく新しい最先端の手法である。
InVirtuoGenは、早期発見から多目的鉛最適化に至るまで、薬物発見のための汎用的な生成基盤を確立する。
我々は、事前訓練されたチェックポイントとコードを公開することにより、オープンサイエンスにさらに貢献する。
関連論文リスト
- Divergence Minimization Preference Optimization for Diffusion Model Alignment [58.651951388346525]
Divergence Minimization Preference Optimization (DMPO) は、逆KL分散を最小化して拡散モデルを整列する原理的手法である。
その結果,DMPOで微調整した拡散モデルは,既存の手法よりも常に優れるか,一致しているかが示唆された。
DMPOは、優先順位調整のための堅牢でエレガントな経路を解き、拡散モデルにおいて実用的な性能を持つ原理的理論をブリッジする。
論文 参考訳(メタデータ) (2025-07-10T07:57:30Z) - Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - Generative Diffusion Models for Resource Allocation in Wireless Networks [74.84410305593006]
我々は、専門家を模倣し、最適な分布から新しいサンプルを生成するポリシーを訓練する。
生成したサンプルの逐次実行により,ほぼ最適性能を実現する。
電力制御のケーススタディにおいて数値的な結果を示す。
論文 参考訳(メタデータ) (2025-04-28T21:44:31Z) - Reward-Guided Iterative Refinement in Diffusion Models at Test-Time with Applications to Protein and DNA Design [87.58981407469977]
進化的アルゴリズムにインスパイアされた拡散モデルを用いた推論時間報酬最適化のための新しいフレームワークを提案する。
当社のアプローチでは,各イテレーションにおける2つのステップ – ノイズ発生と報酬誘導という,反復的な改善プロセスを採用しています。
論文 参考訳(メタデータ) (2025-02-20T17:48:45Z) - ParetoFlow: Guided Flows in Multi-Objective Optimization [12.358524770639136]
オフライン多目的最適化(MOO)では、関連するラベルのオフラインデータセットを同時に複数の目的に活用する。
最近のイテレーションは主に進化的最適化とベイズ最適化を採用しており、データに固有の生成能力に限定的に注意が向けられている。
本手法は,様々なタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-12-04T21:14:18Z) - Heuristically Adaptive Diffusion-Model Evolutionary Strategy [1.8299322342860518]
拡散モデル(Diffusion Models)は、生成モデルにおいて重要な進歩を示す。
本研究は,拡散モデルと進化的アルゴリズムの基本的な関係を明らかにする。
我々のフレームワークは、進化的最適化プロセスにおいて、柔軟性、精度、制御性を高めたアルゴリズム上の大きな遷移を示す。
論文 参考訳(メタデータ) (2024-11-20T16:06:28Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - Simulated annealing for optimization of graphs and sequences [44.974718959154266]
本稿では,グラフとシーケンス最適化のための新しいアニーリングフレームワークであるSAGSを紹介する。
まず、関心の性質と事前定義された制約を含む、洗練された客観的関数を定義する。
SAGSは離散空間からこの目的に向かって、一連のローカル編集を実行することで検索する。
論文 参考訳(メタデータ) (2021-10-01T01:12:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。