論文の概要: Exploring Hierarchical Molecular Graph Representation in Multimodal LLMs
- arxiv url: http://arxiv.org/abs/2411.04708v1
- Date: Thu, 07 Nov 2024 13:45:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:37:56.081181
- Title: Exploring Hierarchical Molecular Graph Representation in Multimodal LLMs
- Title(参考訳): 多モードLDMにおける階層的分子グラフ表現の探索
- Authors: Chengxin Hu, Hao Li,
- Abstract要約: 大規模言語モデル (LLM) とマルチモーダルモデル (Multimodal model) は、LLMを生化学的タスクに適用する機会が急増している。
まず,GNN生成した特徴トークンを融合させることにより,特徴粒度の影響について検討する。
次に,LLM生成分子の品質と,異なるタスクにおける性能の両方が,異なる特徴レベルから恩恵を受けることを確かめ,様々な特徴レベルが性能に与える影響について検討する。
- 参考スコア(独自算出の注目度): 6.221851249300585
- License:
- Abstract: Following the milestones in large language models (LLMs) and multimodal models, we have seen a surge in applying LLMs to biochemical tasks. Leveraging graph features and molecular text representations, LLMs can tackle various tasks, such as predicting chemical reaction outcomes and describing molecular properties. However, most current work overlooks the multi-level nature of graph features. The impact of different feature levels on LLMs and the importance of each level remain unexplored, and it is possible that different chemistry tasks require different feature levels. In this work, we first investigate the effect of feature granularity by fusing GNN-generated feature tokens, discovering that even reducing all tokens to a single token does not significantly impact performance. We then explore the effect of various feature levels on performance, finding that both the quality of LLM-generated molecules and performance on different tasks benefit from different feature levels. We conclude with two key insights: (1) current molecular Multimodal LLMs(MLLMs) lack a comprehensive understanding of graph features, and (2) static processing is not sufficient for hierarchical graph feature. Our code will be publicly available soon.
- Abstract(参考訳): 大規模言語モデル (LLM) とマルチモーダルモデル (Multimodal model) のマイルストーンに続いて, LLM の生化学への応用が急増している。
グラフの特徴と分子テキスト表現を活用することで、LCMは化学反応の結果の予測や分子特性の記述など、様々なタスクに取り組むことができる。
しかし、現在の作業のほとんどは、グラフ機能のマルチレベルの性質を見落としている。
異なる特徴レベルがLLMに与える影響と各レベルの重要性は未解明のままであり、異なる化学タスクは異なる特徴レベルを必要とする可能性がある。
本稿では,まず,GNN生成した特徴トークンを融合させることにより,特徴粒度の影響について検討する。
次に,LLM生成分子の品質と,異なるタスクにおける性能の両方が,異なる特徴レベルから恩恵を受けることを確かめ,様々な特徴レベルが性能に与える影響について検討する。
1)現在の分子マルチモーダルLSM(MLLM)はグラフの特徴の包括的理解に欠けており、(2)静的処理は階層グラフの特徴に不十分である。
私たちのコードはまもなく公開されます。
関連論文リスト
- Multimodal Large Language Models for Inverse Molecular Design with Retrosynthetic Planning [32.745100532916204]
大型言語モデル(LLM)は統合されたイメージを持つが、それらをグラフに適応させることは依然として困難である。
Llamoleは、インターリーブテキストとグラフ生成が可能な最初のマルチモーダルLLMである。
Llamoleは、制御可能な分子設計と再合成計画のために、12のメトリクスにまたがる14の適応LDMを著しく上回っている。
論文 参考訳(メタデータ) (2024-10-05T16:35:32Z) - How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - LLM and GNN are Complementary: Distilling LLM for Multimodal Graph Learning [26.980622926162933]
マルチモーダル分子データを用いた大規模言語モデル(LLM)からの洞察を抽出する革新的なフレームワークを提案する。
マルチモーダル知識をMLP(Multilayer Perceptron)に蒸留することにより,LLMとグラフニューラルネットワーク(GNN)の機能を相乗化するフレームワークであるGALLONを紹介する。
論文 参考訳(メタデータ) (2024-06-03T06:33:51Z) - Data-Efficient Molecular Generation with Hierarchical Textual Inversion [48.816943690420224]
分子生成のための階層型テキスト変換法 (HI-Mol) を提案する。
HI-Molは分子分布を理解する上での階層的情報、例えば粗い特徴ときめ細かい特徴の重要性にインスパイアされている。
単一レベルトークン埋め込みを用いた画像領域の従来のテキストインバージョン法と比較して, マルチレベルトークン埋め込みにより, 基礎となる低ショット分子分布を効果的に学習することができる。
論文 参考訳(メタデータ) (2024-05-05T08:35:23Z) - Exploring the Potential of Large Language Models in Graph Generation [51.046188600990014]
グラフ生成は、与えられたプロパティを持つグラフを生成するために、大きな言語モデル(LLM)を必要とする。
本稿では,LLMのグラフ生成能力について,系統的なタスク設計と実験による検討を行う。
評価の結果,LLM,特にGPT-4は,グラフ生成タスクに予備的能力を示すことがわかった。
論文 参考訳(メタデータ) (2024-03-21T12:37:54Z) - UniMAP: Universal SMILES-Graph Representation Learning [21.25038529787392]
ユニバーサルSMILEグラフ表現学習モデル(UniMAP)を提案する。
CMM(Multi-Level Cross-Modality Masking)、SMILES-Graph Matching(SGM)、FLA(Fragment-Level Alignment)、ドメイン知識学習(DKL)の4種類の事前学習タスクがユニマップ向けに設計されている。
実験の結果,UniMAPは最先端の事前学習方法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-22T07:48:33Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule Representations [68.32093648671496]
分子に固有の二重レベル構造を考慮に入れたGODEを導入する。
分子は固有のグラフ構造を持ち、より広い分子知識グラフ内のノードとして機能する。
異なるグラフ構造上の2つのGNNを事前学習することにより、GODEは対応する知識グラフサブ構造と分子構造を効果的に融合させる。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - GIMLET: A Unified Graph-Text Model for Instruction-Based Molecule
Zero-Shot Learning [71.89623260998934]
本研究は,ゼロショット環境下での分子関連タスクの実現に自然言語命令を用いることの実現可能性について検討する。
既存の分子テキストモデルは、命令の不十分な処理とグラフの限られた容量のために、この設定では性能が良くない。
グラフデータとテキストデータの両方の言語モデルを統合するGIMLETを提案する。
論文 参考訳(メタデータ) (2023-05-28T18:27:59Z) - Enhancing Model Learning and Interpretation Using Multiple Molecular
Graph Representations for Compound Property and Activity Prediction [0.0]
本研究では,高次情報を含む複数の分子グラフ表現を導入する。
モデル学習と多様な視点からの解釈に対するそれらの効果について研究する。
その結果, 原子グラフ表現と分子グラフ表現の低減を組み合わせれば, 有望なモデル性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-04-13T04:20:30Z) - Multi-View Graph Neural Networks for Molecular Property Prediction [67.54644592806876]
マルチビューグラフニューラルネットワーク(MV-GNN)を提案する。
MV-GNNでは,学習過程を安定させるために,自己注意型読み出しコンポーネントと不一致損失を導入する。
我々は、相互依存型メッセージパッシング方式を提案することにより、MV-GNNの表現力をさらに強化する。
論文 参考訳(メタデータ) (2020-05-17T04:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。