論文の概要: Omni-Mol: Exploring Universal Convergent Space for Omni-Molecular Tasks
- arxiv url: http://arxiv.org/abs/2502.01074v2
- Date: Thu, 27 Feb 2025 06:55:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 15:15:46.377339
- Title: Omni-Mol: Exploring Universal Convergent Space for Omni-Molecular Tasks
- Title(参考訳): Omni-Mol:Omni-Molecular Tasksのためのユニバーサル収束空間の探索
- Authors: Chengxin Hu, Hao Li, Yihe Yuan, Zezheng Song, Haixin Wang,
- Abstract要約: 一般論モデルの構築は、近年、様々な科学的領域において顕著な能力を示している。
分子表現の競合は、モデルの最適化に困難をもたらす可能性がある。
本稿では,Omni-Molについて述べる。
- 参考スコア(独自算出の注目度): 6.849025449303022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building generalist models has recently demonstrated remarkable capabilities in diverse scientific domains. Within the realm of molecular learning, several studies have explored unifying diverse tasks across diverse domains. However, negative conflicts and interference between molecules and knowledge from different domain may have a worse impact in threefold. First, conflicting molecular representations can lead to optimization difficulties for the models. Second, mixing and scaling up training data across diverse tasks is inherently challenging. Third, the computational cost of refined pretraining is prohibitively high. To address these limitations, this paper presents Omni-Mol, a scalable and unified LLM-based framework for direct instruction tuning. Omni-Mol builds on three key components to tackles conflicts: (1) a unified encoding mechanism for any task input; (2) an active-learning-driven data selection strategy that significantly reduces dataset size; (3) a novel design of the adaptive gradient stabilization module and anchor-and-reconcile MoE framework that ensures stable convergence. Experimentally, Omni-Mol achieves state-of-the-art performance across 15 molecular tasks, demonstrates the presence of scaling laws in the molecular domain, and is supported by extensive ablation studies and analyses validating the effectiveness of its design. The dataset, code and weights of the powerful AI-driven chemistry generalist are open-sourced.
- Abstract(参考訳): 一般論モデルの構築は、近年、様々な科学的領域において顕著な能力を示している。
分子学習の領域では、様々な領域にまたがる多様なタスクの統一が研究されている。
しかし、異なる領域からの分子と知識の間の負の衝突と干渉は、3倍に悪影響を及ぼす可能性がある。
第一に、矛盾する分子表現はモデルの最適化に困難をもたらす可能性がある。
第二に、さまざまなタスクにまたがるトレーニングデータの混合とスケールアップは本質的に困難です。
第三に、洗練された事前訓練の計算コストは禁断に高い。
これらの制約に対処するため,本論文では,直接命令チューニングのためのスケーラブルで統一的なLLMベースのフレームワークであるOmni-Molを提案する。
Omni-Molは,(1)タスク入力のための統一符号化機構,(2)データセットサイズを著しく削減するアクティブラーニング駆動型データ選択戦略,(3)適応的勾配安定化モジュールの設計,および安定した収束を保証するアンカー・アンド・レコンシブルなMoEフレームワークという,3つの重要なコンポーネントを基盤としている。
実験的に、Omni-Molは15の分子領域にまたがる最先端のパフォーマンスを達成し、分子領域におけるスケーリング法則の存在を実証し、広範囲にわたるアブレーション研究と、その設計の有効性を検証する分析によって支持されている。
強力なAI駆動化学ジェネラリストのデータセット、コード、重みはオープンソースである。
関連論文リスト
- Improving Large Molecular Language Model via Relation-aware Multimodal Collaboration [34.099746438477816]
マルチレベル分子モード協調プロジェクタを備えた大規模言語モデルに基づく分子アシスタントCoLLaMoを提案する。
実験により,我々のCoLLaMoはLMLMの分子モダリティ一般化能力を向上することが示された。
論文 参考訳(メタデータ) (2026-01-18T04:38:19Z) - BioMedGPT-Mol: Multi-task Learning for Molecular Understanding and Generation [9.078742514163524]
分子理解および生成タスクを支援する分子言語モデルであるBioMedGPT-Molを紹介する。
既存の公開命令データセットをキュレートして統一することにより、大規模で包括的で高品質なトレーニングデータセットを組み立てました。
そのモデルは、巧妙に設計されたマルチタスク学習フレームワークによって微調整される。
論文 参考訳(メタデータ) (2025-12-04T10:00:16Z) - MolEdit: Knowledge Editing for Multimodal Molecule Language Models [57.85765246726558]
MolEditは分子対カプセル生成とキャプション対分子生成のためのフレームワークである。
MolEditにはMulti-Expert Knowledge Adapterが組み込まれており、異なる分子ファセットの専門の専門家に、Expertise-Aware Editing Switcherで編集をルーティングする。
MolEditは信頼性を最大18.8%向上し、効率を保ちながらベースラインよりも12.0%良いローカリティを提供する。
論文 参考訳(メタデータ) (2025-11-16T20:48:37Z) - KnowMol: Advancing Molecular Large Language Models with Multi-Level Chemical Knowledge [73.51130155601824]
KnowMol-100Kは100Kの微細な分子アノテーションを持つ大規模データセットである。
また,既存の分子表現戦略の限界に効果的に対処する,化学的に不変な分子表現も提案する。
KnowMolは、分子理解および生成タスク間で優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-10-22T11:23:58Z) - $\ ext{M}^{2}$LLM: Multi-view Molecular Representation Learning with Large Language Models [59.125833618091846]
分子構造ビュー,分子タスクビュー,分子規則ビューの3つの視点を統合した多視点フレームワークを提案する。
実験によると、$textM2$LLMは、分類タスクと回帰タスクをまたいだ複数のベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-12T05:46:47Z) - PharMolixFM: All-Atom Foundation Models for Molecular Modeling and Generation [4.402280157389038]
我々は全原子基盤モデルを構築するための統一フレームワークであるPharMolixFMを提案する。
我々のフレームワークは、最先端のマルチモーダル生成モデルを用いた3つの変種を含む。
PharMolixFM-Diffはタンパク質-小分子ドッキングにおける競合予測精度を実現する。
論文 参考訳(メタデータ) (2025-03-12T12:53:43Z) - MAMMAL -- Molecular Aligned Multi-Modal Architecture and Language [0.4631438140637248]
MAMMALは多タスク基盤モデルの作成に応用された汎用的手法であり、多様なモダリティにわたる大規模生物学的データセットから学習する。
11の下流タスクで評価され、9つのタスクでSOTA(the new state of the art)に到達し、2つのタスクでSOTAに匹敵する。
抗体-抗原およびナノボディ-抗原複合体上でのαfold 3結合予測能について検討し, 4点中3点においてMAMMALの分類性能は有意に向上した。
論文 参考訳(メタデータ) (2024-10-28T20:45:52Z) - Token-Mol 1.0: Tokenized drug design with large language model [10.258299488278514]
Token-Molはトークンのみの3Dドラッグデザインモデルで、2Dや3D構造を含む全ての分子情報をトークンにエンコードする。
トランスデコーダアーキテクチャ上に構築され、ランダム因果マスキング技術を用いて訓練されている。
既存の分子事前学習モデルと比較して、Token-Molはより幅広い下流タスクを扱うのに優れた習熟度を示す。
論文 参考訳(メタデータ) (2024-07-10T07:22:15Z) - MolX: Enhancing Large Language Models for Molecular Understanding With A Multi-Modal Extension [44.97089022713424]
タスクハンドリング能力の強い大規模言語モデル(LLM)は、様々な分野において顕著な進歩を見せている。
本研究は, 分子の理解能力を高めるために, MolX と呼ばれるマルチモーダル外部モジュールを組み込むことにより, LLM の分子理解能力を高めることを目的とする。
手作りの分子指紋は、その埋め込みドメイン知識を活用するために組み込まれている。
論文 参考訳(メタデータ) (2024-06-10T20:25:18Z) - UniIF: Unified Molecule Inverse Folding [67.60267592514381]
全分子の逆折り畳みのための統一モデルUniIFを提案する。
提案手法は,全タスクにおける最先端手法を超越した手法である。
論文 参考訳(メタデータ) (2024-05-29T10:26:16Z) - Instruction Multi-Constraint Molecular Generation Using a Teacher-Student Large Language Model [49.64512917330373]
本稿では,学生に類似した多制約分子生成大言語モデルTSMMGを紹介する。
TSMMGを訓練するために、これらの「教師」から分子知識を抽出し、大量のテキスト-分子対を構築する。
我々は,TSMMGが複雑で自然言語で記述された特性を満たす分子を生成できることを実験的に明らかにした。
論文 参考訳(メタデータ) (2024-03-20T02:15:55Z) - nach0: Multimodal Natural and Chemical Languages Foundation Model [7.815497069231599]
本稿では, 様々な化学的・生物学的課題を解決できる新しい基礎モデルであるnach0を紹介する。
nach0は、科学文献、特許、分子文字列の未ラベルテキストで事前訓練されたマルチドメインおよびマルチタスクエンコーダLLMである。
論文 参考訳(メタデータ) (2023-11-21T07:56:30Z) - Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - Learning Over Molecular Conformer Ensembles: Datasets and Benchmarks [44.934084652800976]
コンフォーマーアンサンブルを用いた学習の可能性を徹底的に評価するための,最初のMoleculAR Conformer Ensemble Learningベンチマークを導入する。
その結果,コンバータ空間からの直接学習は,様々なタスクやモデルの性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-09-29T20:06:46Z) - Empowering Molecule Discovery for Molecule-Caption Translation with Large Language Models: A ChatGPT Perspective [53.300288393173204]
大規模言語モデル(LLM)は、様々なクロスモーダルタスクにおいて顕著なパフォーマンスを示している。
本研究では,分子カプセル翻訳のためのインコンテキストFew-Shot Molecule Learningパラダイムを提案する。
分子理解とテキストベースの分子生成を含む分子キャプション翻訳におけるMollReGPTの有効性を評価する。
論文 参考訳(メタデータ) (2023-06-11T08:16:25Z) - Three-Way Trade-Off in Multi-Objective Learning: Optimization,
Generalization and Conflict-Avoidance [47.42067405054353]
MOL(Multi-objective Learning)は、機械学習の新興問題においてしばしば発生する問題である。
MOLにおける重要な課題の1つは、反復最適化プロセスにおける異なる目的間の潜在的な衝突である。
近年,MGDAやその変種など,MOLの動的重み付けアルゴリズムが開発されている。
論文 参考訳(メタデータ) (2023-05-31T17:31:56Z) - Implicit Geometry and Interaction Embeddings Improve Few-Shot Molecular
Property Prediction [53.06671763877109]
我々は, 複雑な分子特性を符号化した分子埋め込みを開発し, 数発の分子特性予測の性能を向上させる。
我々の手法は大量の合成データ、すなわち分子ドッキング計算の結果を利用する。
複数の分子特性予測ベンチマークでは、埋め込み空間からのトレーニングにより、マルチタスク、MAML、プロトタイプラーニング性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-02-04T01:32:40Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - ASGN: An Active Semi-supervised Graph Neural Network for Molecular
Property Prediction [61.33144688400446]
本稿では,ラベル付き分子とラベルなし分子の両方を組み込んだ,アクティブ半教師付きグラフニューラルネットワーク(ASGN)を提案する。
教師モデルでは,分子構造や分子分布から情報を共同で活用する汎用表現を学習するための,新しい半教師付き学習手法を提案する。
最後に,分子多様性の観点から,フレームワーク学習全体を通して情報的データを選択するための新しい能動的学習戦略を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:22:39Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。