論文の概要: Transformer-Based Approach for Automated Functional Group Replacement in Chemical Compounds
- arxiv url: http://arxiv.org/abs/2601.07930v1
- Date: Mon, 12 Jan 2026 19:01:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:18.905493
- Title: Transformer-Based Approach for Automated Functional Group Replacement in Chemical Compounds
- Title(参考訳): トランスフォーマーによる化合物の官能基置換
- Authors: Bo Pan, Zhiping Zhang, Kevin Spiekermann, Tianchi Chen, Xiang Yu, Liying Zhang, Liang Zhao,
- Abstract要約: 官能基除去と置換のための新しい2段変圧器モデルを開発した。
分子全体を1つのパスで生成するワンショットアプローチとは異なり,本手法では官能基を逐次除去・付加する。
- 参考スコア(独自算出の注目度): 12.414301421345227
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Functional group replacement is a pivotal approach in cheminformatics to enable the design of novel chemical compounds with tailored properties. Traditional methods for functional group removal and replacement often rely on rule-based heuristics, which can be limited in their ability to generate diverse and novel chemical structures. Recently, transformer-based models have shown promise in improving the accuracy and efficiency of molecular transformations, but existing approaches typically focus on single-step modeling, lacking the guarantee of structural similarity. In this work, we seek to advance the state of the art by developing a novel two-stage transformer model for functional group removal and replacement. Unlike one-shot approaches that generate entire molecules in a single pass, our method generates the functional group to be removed and appended sequentially, ensuring strict substructure-level modifications. Using a matched molecular pairs (MMPs) dataset derived from ChEMBL, we trained an encoder-decoder transformer model with SMIRKS-based representations to capture transformation rules effectively. Extensive evaluations demonstrate our method's ability to generate chemically valid transformations, explore diverse chemical spaces, and maintain scalability across varying search sizes.
- Abstract(参考訳): 官能基置換は、化学情報学における重要なアプローチであり、調整された性質を持つ新規な化合物の設計を可能にする。
伝統的な官能基の除去と置換の方法は、しばしば規則に基づくヒューリスティックに依存し、多様な新しい化学構造を生成する能力に制限される。
近年、トランスフォーマーベースのモデルでは、分子変換の精度と効率の向上が期待されているが、既存のアプローチでは、構造的類似性の保証を欠き、シングルステップモデリングに重点を置いている。
本研究では,官能基除去・置換のための新しい2段階変圧器モデルを開発することにより,最先端の技術の進歩を目指す。
単一パスで全分子を生成するワンショットアプローチとは異なり、本手法は機能基を逐次除去・付加し、厳密なサブ構造レベルの修正を確実にする。
一致した分子対(MMP)データセットを用いて,SMIRKSをベースとしたエンコーダ・デコーダ変換モデルを訓練し,変換規則を効果的に捉えた。
大規模評価では, 化学的に有効な変換を生成し, 多様な化学空間を探索し, 様々な検索サイズにわたって拡張性を維持する能力を示す。
関連論文リスト
- GraphXForm: Graph transformer for computer-aided molecular design [73.1842164721868]
既存の化合物を事前訓練したデコーダのみのグラフトランスフォーマアーキテクチャであるGraphXFormを提案する。
種々の薬物設計タスクで評価し、最先端の分子設計手法と比較して優れた客観的スコアを示す。
論文 参考訳(メタデータ) (2024-11-03T19:45:15Z) - Structure Language Models for Protein Conformation Generation [66.42864253026053]
伝統的な物理学に基づくシミュレーション手法は、しばしばサンプリング平衡整合に苦しむ。
深い生成モデルは、より効率的な代替としてタンパク質のコンホメーションを生成することを約束している。
本稿では,効率的なタンパク質コンホメーション生成のための新しいフレームワークとして構造言語モデリングを紹介する。
論文 参考訳(メタデータ) (2024-10-24T03:38:51Z) - Molecule Design by Latent Prompt Transformer [76.2112075557233]
本研究は、分子設計の課題を条件付き生成モデリングタスクとしてフレーミングすることによって検討する。
本研究では,(1)学習可能な事前分布を持つ潜伏ベクトル,(2)プロンプトとして潜伏ベクトルを用いる因果トランスフォーマーに基づく分子生成モデル,(3)潜在プロンプトを用いた分子の目標特性および/または制約値を予測する特性予測モデルからなる新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:33:23Z) - Molecular De Novo Design through Transformer-based Reinforcement
Learning [38.803770968809225]
分子デノボ設計のためのトランスフォーマーを用いた生成モデルを微調整する手法を提案する。
提案手法は, 種々の生物標的に対して活性を示すと予測された化合物の生成において, 優れた性能を示す。
本手法は, 足場ホッピング, 単一分子からのライブラリ拡張, 生物標的に対する高い活性の化合物の生成に有効である。
論文 参考訳(メタデータ) (2023-10-09T02:51:01Z) - Molecular Attributes Transfer from Non-Parallel Data [57.010952598634944]
分子最適化をスタイル伝達問題として定式化し、非並列データの2つのグループ間の内部差を自動的に学習できる新しい生成モデルを提案する。
毒性修飾と合成性向上という2つの分子最適化タスクの実験により,本モデルがいくつかの最先端手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-11-30T06:10:22Z) - Geometric Transformer for End-to-End Molecule Properties Prediction [92.28929858529679]
分子特性予測のためのトランスフォーマーに基づくアーキテクチャを導入し,分子の形状を捉える。
分子幾何学の初期符号化による古典的な位置エンコーダと、学習されたゲート自己保持機構を改変する。
論文 参考訳(メタデータ) (2021-10-26T14:14:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。