論文の概要: DiffER: Categorical Diffusion for Chemical Retrosynthesis
- arxiv url: http://arxiv.org/abs/2505.23721v1
- Date: Thu, 29 May 2025 17:53:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:08.05737
- Title: DiffER: Categorical Diffusion for Chemical Retrosynthesis
- Title(参考訳): DiffER: 化学再合成のためのカテゴリー拡散
- Authors: Sean Current, Ziqi Chen, Daniel Adu-Ampratwum, Xia Ning, Srinivasan Parthasarathy,
- Abstract要約: DiffERは、カテゴリー拡散の形での逆合成予測のための代替的なテンプレートフリーな手法である。
本研究では,トップ1の精度とトップ3,トップ5,トップ10の精度の競争性能を実現する拡散モデルのアンサンブルを構築する。
- 参考スコア(独自算出の注目度): 4.8757706070066265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Methods for automatic chemical retrosynthesis have found recent success through the application of models traditionally built for natural language processing, primarily through transformer neural networks. These models have demonstrated significant ability to translate between the SMILES encodings of chemical products and reactants, but are constrained as a result of their autoregressive nature. We propose DiffER, an alternative template-free method for retrosynthesis prediction in the form of categorical diffusion, which allows the entire output SMILES sequence to be predicted in unison. We construct an ensemble of diffusion models which achieves state-of-the-art performance for top-1 accuracy and competitive performance for top-3, top-5, and top-10 accuracy among template-free methods. We prove that DiffER is a strong baseline for a new class of template-free model, capable of learning a variety of synthetic techniques used in laboratory settings and outperforming a variety of other template-free methods on top-k accuracy metrics. By constructing an ensemble of categorical diffusion models with a novel length prediction component with variance, our method is able to approximately sample from the posterior distribution of reactants, producing results with strong metrics of confidence and likelihood. Furthermore, our analyses demonstrate that accurate prediction of the SMILES sequence length is key to further boosting the performance of categorical diffusion models.
- Abstract(参考訳): 自動化学逆合成法は、主にトランスフォーマーニューラルネットワークを通じて、自然言語処理のために伝統的に構築されたモデルを適用することで、近年成功している。
これらのモデルは化学生成物のSMILESエンコーディングと反応物質を翻訳する重要な能力を示したが、自己回帰的な性質から制約されている。
そこで我々はDiffERを提案する。DiffERはカテゴリー拡散の形で逆合成予測の代替手法で、出力SMILESシーケンス全体を一斉に予測できる。
本研究では,テンプレートフリー手法におけるトップ1精度とトップ3,トップ5,トップ10精度の競争性能を実現する拡散モデルのアンサンブルを構築する。
我々は、DiffERが新しい種類のテンプレートフリーモデルの強力なベースラインであることを証明し、実験室で使用される様々な合成技法を学習し、トップk精度のメトリクスで他のテンプレートフリーメソッドよりも優れていることを示した。
本手法は,新しい長さ予測成分を用いたカテゴリー拡散モデルのアンサンブルを構築することにより,反応体の後部分布からおよそのサンプルを抽出し,信頼性と可能性の強い結果が得られる。
さらに,解析結果から,SMILES配列長の正確な予測が,カテゴリー拡散モデルの性能向上の鍵となることが明らかとなった。
関連論文リスト
- RETRO SYNFLOW: Discrete Flow Matching for Accurate and Diverse Single-Step Retrosynthesis [23.422202032748924]
単段階逆合成計画をモデル化し、離散フローマッチングフレームワークRETRO SynFLOW(RSF)を導入する。
我々は、シークエンシャルモンテカルロをベースとしたFeynman-Kacステアリングを用いて、推論時に有望な世代をステアリングする。
論文 参考訳(メタデータ) (2025-06-04T20:46:05Z) - Self-Refining Training for Amortized Density Functional Theory [5.5541132320126945]
そこで本稿では,自己修復学習戦略を導入することにより,大規模な事前コンパイルデータセットに対するアモータイズDFTソルバの依存性を低減する手法を提案する。
本手法は, 生成試料と基底状態エネルギーで定義される対象ボルツマン分布との差分を測定するKL偏差の変動上界の最小化として導出する。
論文 参考訳(メタデータ) (2025-06-02T00:32:32Z) - Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts [64.34482582690927]
事前学習したスコアベースモデルから得られた熱処理, 幾何平均, 製品分布の配列から, 効率的かつ原理的に抽出する方法を提供する。
本稿では,サンプリング品質を向上させるために,推論時間スケーリングを利用する逐次モンテカルロ(SMC)再サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-04T17:46:51Z) - Chimera: Accurate retrosynthesis prediction by ensembling models with diverse inductive biases [3.885174353072695]
化学合成の計画と実行は、機能的な小さな分子の発見において大きなボトルネックとなっている。
化学者が反応モデルを構築するためのフレームワークであるChimeraを提案する。
論文 参考訳(メタデータ) (2024-12-06T18:55:19Z) - Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - UAlign: Pushing the Limit of Template-free Retrosynthesis Prediction with Unsupervised SMILES Alignment [51.49238426241974]
本稿では,テンプレートのないグラフ・ツー・シーケンスパイプラインであるUAlignを紹介した。
グラフニューラルネットワークとトランスフォーマーを組み合わせることで、分子固有のグラフ構造をより効果的に活用することができる。
論文 参考訳(メタデータ) (2024-03-25T03:23:03Z) - Gluformer: Transformer-Based Personalized Glucose Forecasting with
Uncertainty Quantification [7.451722745955049]
基礎分布の無限混合として過去に条件付けられた将来のグルコースの軌跡をモデル化することを提案する。
この変更により、軌跡が不均一あるいは多モード分布である場合、不確実性を学習し、より正確に予測できる。
人工グルコースデータセットとベンチマークグルコースデータセットの精度と不確かさの両面から,既存の最先端技術よりも提案手法が優れていることを実証的に示す。
論文 参考訳(メタデータ) (2022-09-09T21:03:43Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Data Transfer Approaches to Improve Seq-to-Seq Retrosynthesis [1.6449390849183363]
再合成は、化学反応によって与えられた生成物化合物を合成するために反応化合物を推測する問題である。
レトロ合成に関する最近の研究は、より洗練された予測モデルの提案に焦点を当てている。
モデルをフィードするデータセットは、最高の一般化モデルを達成する上でも重要な役割を果たす。
論文 参考訳(メタデータ) (2020-10-02T05:27:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。