論文の概要: Entropy-Guided Dynamic Tokens for Graph-LLM Alignment in Molecular Understanding
- arxiv url: http://arxiv.org/abs/2602.02742v1
- Date: Mon, 02 Feb 2026 19:56:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.05469
- Title: Entropy-Guided Dynamic Tokens for Graph-LLM Alignment in Molecular Understanding
- Title(参考訳): 分子理解におけるグラフLLMアライメントのためのエントロピー誘導動的トークン
- Authors: Zihao Jing, Qiuhao Zeng, Ruiyi Fang, Yan Sun, Boyu Wang, Pingzhao Hu,
- Abstract要約: 分子理解は、科学的発見のような進歩する領域の中心である。
既存のグラフ-LLMブリッジは、固定長の静的トークンでQ-Formerスタイルのコネクタを適応することが多い。
本稿では,エントロピー誘導型動的トークン変換器であるETT-Formerを紹介した。
- 参考スコア(独自算出の注目度): 13.814119721533508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Molecular understanding is central to advancing areas such as scientific discovery, yet Large Language Models (LLMs) struggle to understand molecular graphs effectively. Existing graph-LLM bridges often adapt the Q-Former-style connector with fixed-length static tokens, which is originally designed for vision tasks. These designs overlook stereochemistry and substructural context and typically require costly LLM-backbone fine-tuning, limiting efficiency and generalization. We introduce EDT-Former, an Entropy-guided Dynamic Token Transformer that generates tokens aligned with informative molecular patches, thereby preserving both local and global structural features for molecular graph understanding. Beyond prior approaches, EDT-Former enables alignment between frozen graph encoders and LLMs without tuning the LLM backbone (excluding the embedding layer), resulting in computationally efficient finetuning, and achieves stateof-the-art results on MoleculeQA, Molecule-oriented Mol-Instructions, and property prediction benchmarks (TDC, MoleculeNet), underscoring its effectiveness for scalable and generalizable multimodal molecular understanding
- Abstract(参考訳): 分子理解は科学的な発見のような進歩する領域の中心であるが、Large Language Models (LLM) は分子グラフを効果的に理解するのに苦労している。
既存のグラフ-LLMブリッジはQ-Formerスタイルのコネクタに固定長の静的トークンで適応することが多い。
これらの設計は、立体化学と構造的文脈を覆い隠すものであり、通常、コストのかかるLCMバックボーンの微調整、効率の制限、一般化を必要とする。
EDT-Formerはエントロピー誘導型動的トークン変換器で、情報的分子パッチに整合したトークンを生成し、分子グラフ理解のための局所的および大域的構造的特徴を保存する。
EDT-Formerは、従来のアプローチ以外にも、LLMバックボーン(埋め込み層を除く)をチューニングすることなく、凍結グラフエンコーダとLCM間のアライメントを可能にし、計算効率のよい微調整を実現し、MolluleQA、Mollecule-oriented Mol-Instructions、およびプロパティ予測ベンチマーク(TDC、MolleculeNet)の最先端結果を達成する。
関連論文リスト
- GraphXForm: Graph transformer for computer-aided molecular design [73.1842164721868]
既存の化合物を事前訓練したデコーダのみのグラフトランスフォーマアーキテクチャであるGraphXFormを提案する。
種々の薬物設計タスクで評価し、最先端の分子設計手法と比較して優れた客観的スコアを示す。
論文 参考訳(メタデータ) (2024-11-03T19:45:15Z) - Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - G2T-LLM: Graph-to-Tree Text Encoding for Molecule Generation with Fine-Tuned Large Language Models [15.32011692129901]
G2T-LLMは,グラフからツリーへのテキストエンコーディングを用いて,グラフに基づく分子構造をベンチマーク(LLM)に最適化した階層型テキスト形式に変換する手法である。
このエンコーディングは、複雑な分子グラフを大きな言語モデルやXMLなどの木構造形式に変換する。
教師付き微調整により、G2T-LLMは有効でコヒーレントな化学構造を生成し、従来のグラフベースの手法で見られる無効な出力のような一般的な課題に対処する。
論文 参考訳(メタデータ) (2024-10-03T04:25:21Z) - MolCPT: Molecule Continuous Prompt Tuning to Generalize Molecular
Representation Learning [77.31492888819935]
分子表現学習のための「プリトレイン,プロンプト,ファインチューン」という新しいパラダイム,分子連続プロンプトチューニング(MolCPT)を提案する。
MolCPTは、事前訓練されたモデルを使用して、スタンドアロンの入力を表現的なプロンプトに投影するモチーフプロンプト関数を定義する。
いくつかのベンチマークデータセットの実験により、MollCPTは分子特性予測のために学習済みのGNNを効率的に一般化することが示された。
論文 参考訳(メタデータ) (2022-12-20T19:32:30Z) - Molecular Graph Generation via Geometric Scattering [7.796917261490019]
グラフニューラルネットワーク(GNN)は、薬物の設計と発見の問題を解決するために広く使われている。
分子グラフ生成における表現第一のアプローチを提案する。
我々のアーキテクチャは、医薬品のデータセットの有意義な表現を学習し、目標指向の薬物合成のためのプラットフォームを提供する。
論文 参考訳(メタデータ) (2021-10-12T18:00:23Z) - Do Large Scale Molecular Language Representations Capture Important
Structural Information? [31.76876206167457]
本稿では,MoLFormerと呼ばれる効率的なトランスフォーマーエンコーダモデルのトレーニングにより得られた分子埋め込みについて述べる。
実験の結果,グラフベースおよび指紋ベースによる教師付き学習ベースラインと比較して,学習された分子表現が競合的に機能することが確認された。
論文 参考訳(メタデータ) (2021-06-17T14:33:55Z) - Molecular Mechanics-Driven Graph Neural Network with Multiplex Graph for
Molecular Structures [20.276492931562036]
この課題に対処するために、グラフニューラルネットワーク(GNN)の数が増えている。
本研究では,分子構造に対して強力かつ効率の良いGNNを設計することを目的とする。
多重分子グラフニューラルネットワーク(MXMNet)の構築
論文 参考訳(メタデータ) (2020-11-15T05:55:15Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。