論文の概要: De Novo Drug Design with Joint Transformers
- arxiv url: http://arxiv.org/abs/2310.02066v3
- Date: Mon, 4 Dec 2023 08:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 21:57:01.054015
- Title: De Novo Drug Design with Joint Transformers
- Title(参考訳): ジョイントトランスを用いたデ・ノボ薬物設計
- Authors: Adam Izdebski and Ewelina Weglarz-Tomczak and Ewa Szczurek and Jakub
M. Tomczak
- Abstract要約: ド・ノボの薬物設計では、トレーニングデータ以外の新しい分子を同時に生成し、その標的特性を予測する必要がある。
本稿では,共有重み付き共同生成モデルにおいて,トランスフォーマーデコーダ,トランスフォーマーエンコーダ,および予測器を組み合わせたジョイントトランスフォーマを提案する。
我々は、目標特性を改善した新しい分子を生成するために、Joint Transformerを用いた確率的ブラックボックス最適化アルゴリズムを定式化する。
- 参考スコア(独自算出の注目度): 9.339914898177186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: De novo drug design requires simultaneously generating novel molecules
outside of training data and predicting their target properties, making it a
hard task for generative models. To address this, we propose Joint Transformer
that combines a Transformer decoder, Transformer encoder, and a predictor in a
joint generative model with shared weights. We formulate a probabilistic
black-box optimization algorithm that employs Joint Transformer to generate
novel molecules with improved target properties and outperforms other
SMILES-based optimization methods in de novo drug design.
- Abstract(参考訳): de novo drug designでは、トレーニングデータ以外の新しい分子を同時生成し、そのターゲット特性を予測する必要があるため、生成モデルでは難しい作業となる。
そこで本研究では,共同生成モデルにおけるトランスフォーマーデコーダ,トランスフォーマーエンコーダ,および予測器を組み合わせたジョイントトランスフォーマを提案する。
目的特性を改良した新規分子を生成するためにJoint Transformerを用いた確率的ブラックボックス最適化アルゴリズムを定式化し、デノボ薬物設計において他のSMILESベースの最適化手法より優れる。
関連論文リスト
- Dual-Space Optimization: Improved Molecule Sequence Design by Latent
Prompt Transformer [78.47949363282868]
本稿では,遅延空間サンプリングとデータ空間選択を統合したDual-Space Optimization (DSO)法を提案する。
DSOは、生成モデルと合成データを所望のプロパティ値の領域にシフトさせる最適化プロセスにおいて、潜在空間生成モデルと合成データセットを反復的に更新する。
提案手法の有効性を実証し, 単一目的, 多目的, 制約された分子設計タスクにまたがる新しい性能ベンチマークを設定した。
論文 参考訳(メタデータ) (2024-02-27T03:33:23Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Effective Pre-Training Objectives for Transformer-based Autoencoders [97.99741848756302]
トランスフォーマーエンコーダの効率,コスト,精度のトレードオフについて検討する。
共通の目的の機能を組み合わせて、新しい効果的な事前学習アプローチを作成します。
論文 参考訳(メタデータ) (2022-10-24T18:39:44Z) - A Transformer-based Generative Model for De Novo Molecular Design [4.6782243206450325]
ターゲット特異的分子設計のためのトランスフォーマーに基づくディープモデルを提案する。
提案法は, 薬物様化合物と標的特異的化合物の両方を生成可能である。
論文 参考訳(メタデータ) (2022-10-17T05:03:35Z) - Tailoring Molecules for Protein Pockets: a Transformer-based Generative
Solution for Structured-based Drug Design [133.1268990638971]
標的タンパク質の構造に基づくデノボ薬物の設計は、新規な薬物候補を提供することができる。
そこで本研究では,特定のターゲットに対して,対象薬物をスクラッチから直接生成できるTamGentという生成ソリューションを提案する。
論文 参考訳(メタデータ) (2022-08-30T09:32:39Z) - Molecular Attributes Transfer from Non-Parallel Data [57.010952598634944]
分子最適化をスタイル伝達問題として定式化し、非並列データの2つのグループ間の内部差を自動的に学習できる新しい生成モデルを提案する。
毒性修飾と合成性向上という2つの分子最適化タスクの実験により,本モデルがいくつかの最先端手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-11-30T06:10:22Z) - Permutation invariant graph-to-sequence model for template-free
retrosynthesis and reaction prediction [2.5655440962401617]
本稿では,テキスト生成のためのトランスフォーマーモデルのパワーと,分子グラフエンコーダの置換不変性を組み合わせた新しいGraph2SMILESモデルについて述べる。
エンドツーエンドアーキテクチャとして、Graph2SMILESは、分子から分子への変換を含むあらゆるタスクにおいて、Transformerのドロップイン置換として使用できる。
論文 参考訳(メタデータ) (2021-10-19T01:23:15Z) - Top-N: Equivariant set and graph generation without exchangeability [61.24699600833916]
集合やグラフ上の分布の前にベクトル形状をマッピングするワンショット確率デコーダを考える。
これらの機能は、可変オートエンコーダ(VAE)、生成逆数ネットワーク(GAN)、正規化フローに統合することができる。
Top-nは、トレーニング可能な参照セットから最も関連性の高いポイントを選択することを学ぶ、決定論的で非交換可能なセット生成メカニズムである。
論文 参考訳(メタデータ) (2021-10-05T14:51:19Z) - Controlled Molecule Generator for Optimizing Multiple Chemical
Properties [9.10095508718581]
2つの制約ネットワークを持つトランスフォーマーに基づく新しい最適化された分子生成モデルを提案する。
実験により,提案モデルでは,複数の特性を同時に最適化する上で,最先端モデルよりも有意な差が認められた。
論文 参考訳(メタデータ) (2020-10-26T21:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。