論文の概要: ScaffoldGPT: A Scaffold-based Large Language Model for Drug Improvement
- arxiv url: http://arxiv.org/abs/2502.06891v1
- Date: Sun, 09 Feb 2025 10:36:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:08:51.726250
- Title: ScaffoldGPT: A Scaffold-based Large Language Model for Drug Improvement
- Title(参考訳): ScaffoldGPT: 薬物改善のための大言語モデル
- Authors: Xuefeng Liu, Songhao Jiang, Rick Stevens,
- Abstract要約: ScaffoldGPTは分子足場に基づく薬物最適化のための新しいLarge Language Model (LLM)である。
本研究は,(1)事前学習,微調整,復号化を統合した3段階の薬物最適化アプローチである。
- 参考スコア(独自算出の注目度): 2.6198448284771443
- License:
- Abstract: Drug optimization has become increasingly crucial in light of fast-mutating virus strains and drug-resistant cancer cells. Nevertheless, it remains challenging as it necessitates retaining the beneficial properties of the original drug while simultaneously enhancing desired attributes beyond its scope. In this work, we aim to tackle this challenge by introducing ScaffoldGPT, a novel Large Language Model (LLM) designed for drug optimization based on molecular scaffolds. Our work comprises three key components: (1) A three-stage drug optimization approach that integrates pretraining, finetuning, and decoding optimization. (2) A uniquely designed two-phase incremental training approach for pre-training the drug optimization LLM-based generator on molecule scaffold with enhanced performance. (3) A token-level decoding optimization strategy, TOP-N, that enabling controlled, reward-guided generation using pretrained/finetuned LLMs. Finally, by conducting a comprehensive evaluation on COVID and cancer benchmarks, we demonstrate that SCAFFOLDGPT outperforms the competing baselines in drug optimization benchmarks, while excelling in preserving the original functional scaffold and enhancing desired properties.
- Abstract(参考訳): 薬物の最適化は、急速に変異するウイルス株や薬剤耐性のがん細胞に照らしてますます重要になっている。
それでも、元の薬の有益性を保ちながら、その範囲を超えて望ましい属性を同時に強化する必要があるため、依然として困難である。
そこで本研究では,分子足場に基づく薬物最適化のための新しいLarge Language Model(LLM)であるScaffoldGPTを導入することで,この問題に対処する。
本研究は,(1)事前学習,微調整,復号化を統合した3段階の薬物最適化アプローチである。
2) 分子足場上での薬物最適化LDMに基づくジェネレータの事前学習のための2段階インクリメンタルトレーニングを独自に設計し, 性能を向上した。
(3)トークンレベルの復号化最適化戦略TOP-N。
最後に、新型コロナウイルスとがんのベンチマークを総合的に評価することにより、SCAFFOLDGPTは、元の機能的足場を保存し、望ましい特性を向上しつつ、薬物最適化ベンチマークにおいて競合するベースラインを上回っていることを示す。
関連論文リスト
- ControllableGPT: A Ground-Up Designed Controllable GPT for Molecule Optimization [6.900025190052277]
我々は,大規模言語モデルのための制御可能なトレーニングフレームワークである ControllableGPT を紹介する。
成長と進化の生物学的プロセスにインスパイアされ、配列の伸長、縮小、突然変異を含む。
特定の位置やサブシーケンスの整合性を維持しつつ、シーケンス内の特定の位置と範囲の正確な管理を可能にする。
論文 参考訳(メタデータ) (2025-02-15T01:49:35Z) - DrugImproverGPT: A Large Language Model for Drug Optimization with Fine-Tuning via Structured Policy Optimization [53.27954325490941]
大規模言語モデル(LLM)の微調整は、特定の目的に向けて結果を生成するために不可欠である。
本研究は,薬物最適化LSMに基づく生成モデルを微調整するための新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-11T04:00:21Z) - The Dual-use Dilemma in LLMs: Do Empowering Ethical Capacities Make a Degraded Utility? [54.18519360412294]
大きな言語モデル(LLM)は、安全のための有害な要求を拒否することと、ユーティリティのための正当な要求を収容することのバランスをとる必要がある。
本稿では,DPO(Direct Preference Optimization)に基づくアライメントフレームワークを提案する。
得られたモデルLibraChemは,Claude-3,GPT-4o,LLaMA-3などのLLMをそれぞれ13.44%,7.16%,7.10%で上回った。
論文 参考訳(メタデータ) (2025-01-20T06:35:01Z) - Structure-Based Molecule Optimization via Gradient-Guided Bayesian Update [16.743187639189976]
構造に基づく分子最適化(SBMO)は、タンパク質標的に対して連続座標と離散型の両方で分子を最適化することを目的としている。
MolJOは、様々なモードのジョイントガイダンス信号を容易にする最初の勾配ベースのSBMOフレームワークである。
MolJOはCrossDocked 2020ベンチマークで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-11-20T12:48:29Z) - Efficient Continual Pre-training by Mitigating the Stability Gap [68.49269649759005]
本研究では,Large Language Models (LLM) の継続事前学習における挙動について検討する。
固定された計算予算内でのLLM性能を向上させるための3つの効果的な戦略を提案する。
当社の戦略は,OpenLlama-3Bモデルの平均医療タスク性能を36.2%から40.7%に改善し,当初のトレーニング予算の40%に過ぎなかった。
論文 参考訳(メタデータ) (2024-06-21T02:28:37Z) - LightCPPgen: An Explainable Machine Learning Pipeline for Rational Design of Cell Penetrating Peptides [0.32985979395737786]
我々は,機械学習(ML)と最適化アルゴリズムの長所を活かして,CPPのデノボ設計に革新的なアプローチを導入する。
私たちの戦略はLight CPPgenと呼ばれ、LightGBMベースの予測モデルと遺伝的アルゴリズム(GA)を統合しています。
GAソリューションは、元の非貫通ペプチドとの類似性を最大化しつつ、候補配列の透過性スコアを特にターゲットとしている。
論文 参考訳(メタデータ) (2024-05-31T10:57:25Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - Deep Lead Optimization: Leveraging Generative AI for Structural Modification [12.167178956742113]
このレビューでは、基本的な概念、目標、従来のCADD技術、最近のAIDDの進歩について論じる。
制約付きサブグラフ生成に基づく統一的な視点を導入し,デノボ設計とリード最適化の方法論を調和させる。
論文 参考訳(メタデータ) (2024-04-30T03:17:42Z) - DecompOpt: Controllable and Decomposed Diffusion Models for Structure-based Molecular Optimization [49.85944390503957]
DecompOptは、制御可能・拡散モデルに基づく構造に基づく分子最適化手法である。
DecompOptは強いde novoベースラインよりも優れた特性を持つ分子を効率よく生成できることを示す。
論文 参考訳(メタデータ) (2024-03-07T02:53:40Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。