論文の概要: OMTRA: A Multi-Task Generative Model for Structure-Based Drug Design
- arxiv url: http://arxiv.org/abs/2512.05080v1
- Date: Thu, 04 Dec 2025 18:46:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.322175
- Title: OMTRA: A Multi-Task Generative Model for Structure-Based Drug Design
- Title(参考訳): OMTRA: 構造に基づく医薬品設計のためのマルチタスク生成モデル
- Authors: Ian Dunn, Liv Toft, Tyler Katz, Juhi Gupta, Riya Shah, Ramith Hettiarachchi, David R. Koes,
- Abstract要約: 我々はOMTRAにおける統一的アプローチを提案し、薬物設計(SBDD)に関連する多くのタスクを柔軟に実行する。
我々は、500Mの3次元分子コンバータのデータセットをキュレートし、タンパク質リガンドデータを補完し、トレーニングに利用可能な化学的多様性を拡大する。
OMTRAは, ポケットコンディショニングド・ノボ設計およびドッキングにおける技術性能の状態を把握しているが, 大規模プレトレーニングとマルチタスクトレーニングの効果は軽度である。
- 参考スコア(独自算出の注目度): 0.2578364360202627
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Structure-based drug design (SBDD) focuses on designing small-molecule ligands that bind to specific protein pockets. Computational methods are integral in modern SBDD workflows and often make use of virtual screening methods via docking or pharmacophore search. Modern generative modeling approaches have focused on improving novel ligand discovery by enabling de novo design. In this work, we recognize that these tasks share a common structure and can therefore be represented as different instantiations of a consistent generative modeling framework. We propose a unified approach in OMTRA, a multi-modal flow matching model that flexibly performs many tasks relevant to SBDD, including some with no analogue in conventional workflows. Additionally, we curate a dataset of 500M 3D molecular conformers, complementing protein-ligand data and expanding the chemical diversity available for training. OMTRA obtains state of the art performance on pocket-conditioned de novo design and docking; however, the effects of large-scale pretraining and multi-task training are modest. All code, trained models, and dataset for reproducing this work are available at https://github.com/gnina/OMTRA
- Abstract(参考訳): 構造に基づく薬物設計(SBDD)は、特定のタンパク質ポケットに結合する小分子リガンドの設計に焦点を当てている。
計算手法は現代のSBDDワークフローに不可欠なものであり、ドッキングや薬局検索を通じて仮想スクリーニング手法を利用することが多い。
現代のジェネレーティブ・モデリングのアプローチは、デ・ノボの設計を可能にして、新しいリガンド発見を改善することに重点を置いている。
本研究では、これらのタスクが共通の構造を共有しており、従って一貫した生成的モデリングフレームワークの異なるインスタンス化として表すことができることを認識している。
我々は,従来のワークフローに類を見ないものを含む,SBDDに関連する多くのタスクを柔軟に実行するマルチモーダルフローマッチングモデルであるOMTRAに統一的なアプローチを提案する。
さらに,500M3D分子コンホメータのデータセットをキュレートし,タンパク質リガンドデータを補完し,トレーニングに利用可能な化学多様性を拡大する。
OMTRAは、ポケットコンディショニングド・ノボ設計およびドッキングにおける最先端性能を得るが、大規模プレトレーニングとマルチタスクトレーニングの効果は控えめである。
この作業を再現するためのすべてのコード、トレーニングされたモデル、データセットはhttps://github.com/gnina/OMTRAで入手できる。
関連論文リスト
- MODA: A Unified 3D Diffusion Framework for Multi-Task Target-Aware Molecular Generation [16.07694748790297]
我々は,断片成長,リンカー設計,足場ホッピング,サイドチェーン装飾をベイズマスクスケジューラと統合する拡散フレームワークMODAを紹介する。
トレーニング中、連続した空間的断片がマスクされ、1つのパスで識別され、モデルがタスク全体にわたって共有された幾何学的および化学的先行性を学ぶことができる。
論文 参考訳(メタデータ) (2025-07-09T18:19:50Z) - UniSTD: Towards Unified Spatio-Temporal Learning across Diverse Disciplines [64.84631333071728]
本稿では,時間的モデリングのためのトランスフォーマーベースの統合フレームワークであるbfUnistageを紹介する。
我々の研究は、タスク固有の視覚テキストが時間学習のための一般化可能なモデルを構築することができることを示した。
また、時間的ダイナミクスを明示的に組み込むための時間的モジュールも導入する。
論文 参考訳(メタデータ) (2025-03-26T17:33:23Z) - MIND: Modality-Informed Knowledge Distillation Framework for Multimodal Clinical Prediction Tasks [50.98856172702256]
マルチモーダルモデル圧縮手法である MIND (Modality-Informed Knowledge Distillation) フレームワークを提案する。
MINDは、様々なサイズの事前訓練されたディープニューラルネットワークのアンサンブルから、より小さなマルチモーダルの学生に知識を伝達する。
時系列データと胸部X線画像を用いた2値および複数ラベルの臨床予測タスクにおけるMINDの評価を行った。
論文 参考訳(メタデータ) (2025-02-03T08:50:00Z) - Exploring Discrete Flow Matching for 3D De Novo Molecule Generation [0.0]
フローマッチングは、最近提案されたジェネレーティブモデリングフレームワークで、様々なタスクにおいて印象的なパフォーマンスを実現している。
本稿では,既存の手法よりも学習可能なパラメータが少ない3D de novo設計における技術性能の状態を達成した,オープンソースのFlowMol-CTMCを提案する。
論文 参考訳(メタデータ) (2024-11-25T18:27:39Z) - MAMMAL -- Molecular Aligned Multi-Modal Architecture and Language [0.4631438140637248]
MAMMALは多タスク基盤モデルの作成に応用された汎用的手法であり、多様なモダリティにわたる大規模生物学的データセットから学習する。
11の下流タスクで評価され、9つのタスクでSOTA(the new state of the art)に到達し、2つのタスクでSOTAに匹敵する。
抗体-抗原およびナノボディ-抗原複合体上でのαfold 3結合予測能について検討し, 4点中3点においてMAMMALの分類性能は有意に向上した。
論文 参考訳(メタデータ) (2024-10-28T20:45:52Z) - nach0-pc: Multi-task Language Model with Molecular Point Cloud Encoder [8.125243669908318]
nach0-pcは、ドメイン固有のエンコーダとテキスト表現を組み合わせて、原子の空間配置を効果的に処理するモデルである。
本稿では,空間分子構造データセットから知識を抽出するための,分子点雲のための新しい事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T20:30:44Z) - ComboStoc: Combinatorial Stochasticity for Diffusion Generative Models [65.82630283336051]
拡散生成モデルの既存のトレーニングスキームにより,次元と属性の組み合わせによって区切られた空間が十分に標本化されていないことを示す。
構造を完全に活用するプロセスを構築し,ComboStocという名前でこの問題に対処する。
論文 参考訳(メタデータ) (2024-05-22T15:23:10Z) - Compositional Generative Inverse Design [69.22782875567547]
入力変数を設計して目的関数を最適化する逆設計は重要な問題である。
拡散モデルにより得られた学習エネルギー関数を最適化することにより、そのような逆例を避けることができることを示す。
N-body 相互作用タスクと2次元多面体設計タスクにおいて,実験時に学習した拡散モデルを構成することにより,初期状態と境界形状を設計できることを示す。
論文 参考訳(メタデータ) (2024-01-24T01:33:39Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - An Empirical Study of Multimodal Model Merging [148.48412442848795]
モデルマージは、異なるタスクでトレーニングされた複数のモデルを融合してマルチタスクソリューションを生成するテクニックである。
我々は、モダリティ固有のアーキテクチャのビジョン、言語、およびクロスモーダルトランスフォーマーをマージできる新しい目標に向けて研究を行っている。
本稿では,重み間の距離を推定し,マージ結果の指標となる2つの指標を提案する。
論文 参考訳(メタデータ) (2023-04-28T15:43:21Z) - Structure-based Drug Design with Equivariant Diffusion Models [40.73626627266543]
本稿では,タンパク質ポケットに新しい条件を付加したSE(3)-同変拡散モデルDiffSBDDを提案する。
我々のサイリコ実験では、DiffSBDDが地上の真実データの統計を効果的に捉えていることが示されています。
これらの結果は、拡散モデルが従来の方法よりも正確に構造データの複雑な分布を表すという仮定を支持する。
論文 参考訳(メタデータ) (2022-10-24T15:51:21Z) - Retrieval-based Controllable Molecule Generation [63.44583084888342]
制御可能な分子生成のための検索に基づく新しいフレームワークを提案する。
我々は、与えられた設計基準を満たす分子の合成に向けて、事前学習された生成モデルを操るために、分子の小さなセットを使用します。
提案手法は生成モデルの選択に非依存であり,タスク固有の微調整は不要である。
論文 参考訳(メタデータ) (2022-08-23T17:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。