論文の概要: Improving Large Molecular Language Model via Relation-aware Multimodal Collaboration
- arxiv url: http://arxiv.org/abs/2601.12256v1
- Date: Sun, 18 Jan 2026 04:38:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.531179
- Title: Improving Large Molecular Language Model via Relation-aware Multimodal Collaboration
- Title(参考訳): リレーショナル・アウェア・マルチモーダル・コラボレーションによる大規模分子言語モデルの改善
- Authors: Jinyoung Park, Minseong Bae, Jeehye Na, Hyunwoo J. Kim,
- Abstract要約: マルチレベル分子モード協調プロジェクタを備えた大規模言語モデルに基づく分子アシスタントCoLLaMoを提案する。
実験により,我々のCoLLaMoはLMLMの分子モダリティ一般化能力を向上することが示された。
- 参考スコア(独自算出の注目度): 34.099746438477816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated their instruction-following capabilities and achieved powerful performance on various tasks. Inspired by their success, recent works in the molecular domain have led to the development of large molecular language models (LMLMs) that integrate 1D molecular strings or 2D molecular graphs into the language models. However, existing LMLMs often suffer from hallucination and limited robustness, largely due to inadequate integration of diverse molecular modalities such as 1D sequences, 2D molecular graphs, and 3D conformations. To address these limitations, we propose CoLLaMo, a large language model-based molecular assistant equipped with a multi-level molecular modality-collaborative projector. The relation-aware modality-collaborative attention mechanism in the projector facilitates fine-grained and relation-guided information exchange between atoms by incorporating 2D structural and 3D spatial relations. Furthermore, we present a molecule-centric new automatic measurement, including a hallucination assessment metric and GPT-based caption quality evaluation to address the limitations of token-based generic evaluation metrics (i.e., BLEU) widely used in assessing molecular comprehension of LMLMs. Our extensive experiments demonstrate that our CoLLaMo enhances the molecular modality generalization capabilities of LMLMs, achieving the best performance on multiple tasks, including molecule captioning, computed property QA, descriptive property QA, motif counting, and IUPAC name prediction.
- Abstract(参考訳): 大規模言語モデル(LLM)は、命令追従能力を示し、様々なタスクにおいて強力なパフォーマンスを実現している。
その成功に触発されて、分子領域における最近の研究は、1次元分子列や2次元分子グラフを言語モデルに統合する大規模分子言語モデル(LMLM)の開発につながった。
しかし、既存のLMLMは、主に1D配列、2D分子グラフ、および3Dコンホメーションのような多様な分子の修飾が不十分なため、幻覚と限られた堅牢性に悩まされることが多い。
このような制約に対処するため,多レベル分子モダリティ協調プロジェクタを備えた大規模言語モデルに基づく分子アシスタントであるCoLLaMoを提案する。
プロジェクターにおけるリレーショナル・アウェア・モダリティ・コラボレーティブ・アテンション機構は、2次元構造的および3次元空間的関係を組み込むことで、原子間の微粒化およびリレーショナル・ガイド情報交換を容易にする。
さらに, LMLMの分子理解評価に広く用いられているトークンベース汎用評価指標(BLEU)の限界に対処するため, 幻覚評価基準とGPTに基づくキャプション品質評価を含む分子中心の新しい自動測定手法を提案する。
我々のCLLaMoは,分子キャプション,計算特性QA,記述特性QA,モチーフカウント,IUPAC名予測など,複数のタスクにおいて最高の性能を発揮する。
関連論文リスト
- KnowMol: Advancing Molecular Large Language Models with Multi-Level Chemical Knowledge [73.51130155601824]
KnowMol-100Kは100Kの微細な分子アノテーションを持つ大規模データセットである。
また,既存の分子表現戦略の限界に効果的に対処する,化学的に不変な分子表現も提案する。
KnowMolは、分子理解および生成タスク間で優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-10-22T11:23:58Z) - $\text{M}^{2}$LLM: Multi-view Molecular Representation Learning with Large Language Models [59.125833618091846]
分子構造ビュー,分子タスクビュー,分子規則ビューの3つの視点を統合した多視点フレームワークを提案する。
実験によると、$textM2$LLMは、分類タスクと回帰タスクをまたいだ複数のベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-12T05:46:47Z) - MolX: Enhancing Large Language Models for Molecular Understanding With A Multi-Modal Extension [44.97089022713424]
タスクハンドリング能力の強い大規模言語モデル(LLM)は、様々な分野において顕著な進歩を見せている。
本研究は, 分子の理解能力を高めるために, MolX と呼ばれるマルチモーダル外部モジュールを組み込むことにより, LLM の分子理解能力を高めることを目的とする。
手作りの分子指紋は、その埋め込みドメイン知識を活用するために組み込まれている。
論文 参考訳(メタデータ) (2024-06-10T20:25:18Z) - Instruction Multi-Constraint Molecular Generation Using a Teacher-Student Large Language Model [49.64512917330373]
本稿では,学生に類似した多制約分子生成大言語モデルTSMMGを紹介する。
TSMMGを訓練するために、これらの「教師」から分子知識を抽出し、大量のテキスト-分子対を構築する。
我々は,TSMMGが複雑で自然言語で記述された特性を満たす分子を生成できることを実験的に明らかにした。
論文 参考訳(メタデータ) (2024-03-20T02:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。