論文の概要: CROP: Integrating Topological and Spatial Structures via Cross-View Prefixes for Molecular LLMs
- arxiv url: http://arxiv.org/abs/2508.06917v1
- Date: Sat, 09 Aug 2025 10:06:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.614178
- Title: CROP: Integrating Topological and Spatial Structures via Cross-View Prefixes for Molecular LLMs
- Title(参考訳): CROP:分子LLMのためのクロスビュープレフィックスによるトポロジカル・空間構造の統合
- Authors: Jianting Tang, Yubo Wang, Haoyu Cao, Linli Xu,
- Abstract要約: 本稿では,CROss-view Prefixes (CROP) を提案する。
我々のフレームワークは、ビューリサンプリング用に慎重に設計されたSMILES Guided Resamplerと、その結果の埋め込みをLLMのプレフィックスに変換する構造的埋め込みゲートを備えている。
- 参考スコア(独自算出の注目度): 10.16893890191528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in molecular science have been propelled significantly by large language models (LLMs). However, their effectiveness is limited when relying solely on molecular sequences, which fail to capture the complex structures of molecules. Beyond sequence representation, molecules exhibit two complementary structural views: the first focuses on the topological relationships between atoms, as exemplified by the graph view; and the second emphasizes the spatial configuration of molecules, as represented by the image view. The two types of views provide unique insights into molecular structures. To leverage these views collaboratively, we propose the CROss-view Prefixes (CROP) to enhance LLMs' molecular understanding through efficient multi-view integration. CROP possesses two advantages: (i) efficiency: by jointly resampling multiple structural views into fixed-length prefixes, it avoids excessive consumption of the LLM's limited context length and allows easy expansion to more views; (ii) effectiveness: by utilizing the LLM's self-encoded molecular sequences to guide the resampling process, it boosts the quality of the generated prefixes. Specifically, our framework features a carefully designed SMILES Guided Resampler for view resampling, and a Structural Embedding Gate for converting the resulting embeddings into LLM's prefixes. Extensive experiments demonstrate the superiority of CROP in tasks including molecule captioning, IUPAC name prediction and molecule property prediction.
- Abstract(参考訳): 分子科学の最近の進歩は、大きな言語モデル(LLM)によって著しく推進されている。
しかし、それらの効果は分子配列のみに依存する場合に限られており、分子の複雑な構造を捉えることができない。
シーケンス表現以外にも、分子は2つの相補的な構造的視点を示す: 1つはグラフビューで示されるように原子間のトポロジ的関係に焦点を当て、もう1つは画像ビューで表されるように分子の空間的配置を強調している。
この2つのビューは、分子構造に関するユニークな洞察を与えてくれる。
これらのビューを協調的に活用するために、効率的なマルチビュー統合によるLCMの分子理解を高めるために、CROP(CROss-view Prefixes)を提案する。
CROPには2つの利点がある。
(i)効率性:複数構造のビューを固定長のプレフィックスに合体させることにより、LLMの限られたコンテキスト長の過度な消費を回避し、より多くのビューに容易に拡張することができる。
(ii) 有効性: LLMの自己エンコードされた分子配列を利用して再サンプリングプロセスを導くことにより、生成されたプレフィックスの品質を高める。
具体的には、ビューリサンプリング用に慎重に設計されたSMILES Guided Resamplerと、その結果の埋め込みをLLMのプレフィックスに変換する構造埋め込みゲートを備えている。
分子キャプション、IUPAC名予測、分子特性予測といったタスクにおけるCROPの優位性を示す大規模な実験である。
関連論文リスト
- Knowledge-aware contrastive heterogeneous molecular graph learning [77.94721384862699]
分子グラフを不均一な分子グラフ学習(KCHML)に符号化するパラダイムシフトを提案する。
KCHMLは、不均一な分子グラフと二重メッセージパッシング機構によって強化された3つの異なるグラフビュー-分子、元素、薬理学-を通して分子を概念化する。
この設計は、プロパティ予測やドラッグ・ドラッグ・インタラクション(DDI)予測などの下流タスクに対する包括的な表現を提供する。
論文 参考訳(メタデータ) (2025-02-17T11:53:58Z) - DiffMS: Diffusion Generation of Molecules Conditioned on Mass Spectra [60.39311767532607]
本稿では,DiffMSを提案する。DiffMS,式制限付きエンコーダ・デコーダ生成ネットワークは,このタスクにおける最先端性能を実現する。
遅延埋め込みと分子構造をブリッジするロバストデコーダを開発するために,フィンガー構造対による拡散デコーダの事前訓練を行う。
確立されたベンチマーク実験により、DiffMSはデノボ分子生成における既存のモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-13T18:29:48Z) - MolReFlect: Towards In-Context Fine-grained Alignments between Molecules and Texts [23.53304253421472]
MolReFlectは、微細な方法で分子カプセルアライメントを文脈的に実行するように設計された教師学生向けフレームワークである。
実験の結果,MorReFlectはMistral-7BのようなLLMを従来のベースラインよりも大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-11-22T04:28:56Z) - Structural Reasoning Improves Molecular Understanding of LLM [18.532188836688928]
大規模言語モデル (LLM) は分子構造情報を用いた推論に依然として苦戦していることを示す。
本稿では,分子構造を推論のためにスケッチする手法を提案する。
対象分子が未知あるいは未知のシナリオのための2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-08T01:49:48Z) - FARM: Functional Group-Aware Representations for Small Molecules [55.281754551202326]
小型分子のための機能的グループ認識表現(FARM)について紹介する。
FARMはSMILES、自然言語、分子グラフのギャップを埋めるために設計された新しいモデルである。
我々は、13のタスクのうち11のタスクで最先端のパフォーマンスを達成するMoleculeNetデータセット上で、FARMを評価した。
論文 参考訳(メタデータ) (2024-10-02T23:04:58Z) - MolX: Enhancing Large Language Models for Molecular Understanding With A Multi-Modal Extension [36.31928599489024]
タスクハンドリング能力の強い大規模言語モデル(LLM)は、様々な分野において顕著な進歩を見せている。
本研究は, 分子の理解能力を高めるために, MolX と呼ばれるマルチモーダル外部モジュールを組み込むことにより, LLM の分子理解能力を高めることを目的とする。
手作りの分子指紋は、その埋め込みドメイン知識を活用するために組み込まれている。
論文 参考訳(メタデータ) (2024-06-10T20:25:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。