論文の概要: MV-CLAM: Multi-View Molecular Interpretation with Cross-Modal Projection via Language Model
- arxiv url: http://arxiv.org/abs/2503.04780v1
- Date: Sun, 23 Feb 2025 14:38:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 09:17:28.248919
- Title: MV-CLAM: Multi-View Molecular Interpretation with Cross-Modal Projection via Language Model
- Title(参考訳): MV-CLAM:言語モデルによる多視点分子解釈
- Authors: Sumin Ha, Jun Hyeong Kim, Yinhua Piao, Sun Kim,
- Abstract要約: 本稿では,多視点分子表現を統一されたテキスト空間に整列させる新しいフレームワークであるMV-CLAMを提案する。
トークンレベルのコントラスト損失は多様な分子的特徴を保っているのに対して,我々のアプローチはクロスビューの一貫性を保証する。
MV-CLAMは分子推論を強化し、検索とキャプション精度を向上させる。
- 参考スコア(独自算出の注目度): 5.246680705885042
- License:
- Abstract: Human expertise in chemistry and biomedicine relies on contextual molecular understanding, a capability that large language models (LLMs) can extend through fine-grained alignment between molecular structures and text. Recent multimodal learning advances focus on cross-modal alignment, but existing molecule-text models ignore complementary information in different molecular views and rely on single-view representations, limiting molecular understanding. Moreover, na\"ive multi-view alignment strategies face two challenges: (1) separate aligned spaces with inconsistent mappings between molecule and text embeddings, and that (2) existing loss objectives fail to preserve complementary information for fine-grained alignment. This can limit the LLM's ability to fully understand the molecular properties. To address these issues, we propose MV-CLAM, a novel framework that aligns multi-view molecular representations into a unified textual space using a multi-query transformer (MQ-Former). Our approach ensures cross-view consistency while a token-level contrastive loss preserves diverse molecular features across textual queries. MV-CLAM enhances molecular reasoning, improving retrieval and captioning accuracy. The source code of MV-CLAM is available in https://github.com/sumin124/mv-clam.git.
- Abstract(参考訳): 化学と生医学における人間の専門知識は、大きな言語モデル(LLM)が分子構造とテキストの微妙なアライメントを通じて拡張できる、文脈的分子理解に依存している。
近年のマルチモーダル学習は、分子間のアライメントに重点を置いているが、既存の分子テクストモデルは、異なる分子ビューにおける相補的な情報を無視し、単一ビュー表現に依存し、分子理解を制限している。
さらに、(1)分子とテキストの埋め込みの間に不整合写像を持つ整列空間を分離し、(2)既存の損失目標が相補的な情報を微細なアライメントのために保持できないこと、という2つの課題に直面している。
これにより、LLMが分子特性を完全に理解する能力を制限することができる。
これらの問題に対処するために,マルチクエリ変換器 (MQ-Former) を用いて,多視点分子表現を統一されたテキスト空間に整列する新しいフレームワークであるMV-CLAMを提案する。
トークンレベルのコントラスト損失は、テキストクエリ間で多様な分子的特徴を保ちながら、クロスビューの一貫性を保証する。
MV-CLAMは分子推論を強化し、検索とキャプション精度を向上させる。
MV-CLAMのソースコードはhttps://github.com/sumin124/mv-clam.gitで入手できる。
関連論文リスト
- Mol-LLaMA: Towards General Understanding of Molecules in Large Molecular Language Model [55.87790704067848]
Mol-LLaMAは、分子を中心とした一般的な知識を把握した大きな分子言語モデルである。
異なる分子エンコーダの相補的な情報を統合するモジュールを導入する。
実験の結果,Moll-LLaMAは分子の一般的な特徴を理解することができることがわかった。
論文 参考訳(メタデータ) (2025-02-19T05:49:10Z) - Knowledge-aware contrastive heterogeneous molecular graph learning [77.94721384862699]
分子グラフを不均一な分子グラフ学習(KCHML)に符号化するパラダイムシフトを提案する。
KCHMLは、不均一な分子グラフと二重メッセージパッシング機構によって強化された3つの異なるグラフビュー-分子、元素、薬理学-を通して分子を概念化する。
この設計は、プロパティ予測やドラッグ・ドラッグ・インタラクション(DDI)予測などの下流タスクに対する包括的な表現を提供する。
論文 参考訳(メタデータ) (2025-02-17T11:53:58Z) - Exploring Optimal Transport-Based Multi-Grained Alignments for Text-Molecule Retrieval [24.061535843472427]
最適TRansportに基づく多粒度アライメントモデル(ORMA)を導入する。
ORMAは、テキスト記述と分子間の多義的なアライメントを促進する新しいアプローチである。
ChEBI-20データセットとPCdesデータセットの実験結果から、ORMAが既存のSOTA(State-of-the-art)モデルを大幅に上回っていることが示されている。
論文 参考訳(メタデータ) (2024-11-04T06:30:52Z) - UniMoT: Unified Molecule-Text Language Model with Discrete Token Representation [35.51027934845928]
トークン化アーキテクチャを採用した統一分子テキストLLMであるUniMoTを紹介する。
ベクトル量子化駆動型トークン化器は、分子を因果依存性を持つ分子トークンの配列に変換する。
UniMoTは、分子間テキストとテキスト間タスクの両方を実行するマルチモーダル・ジェネラリストとして登場した。
論文 参考訳(メタデータ) (2024-08-01T18:31:31Z) - Vision Language Model is NOT All You Need: Augmentation Strategies for Molecule Language Models [43.26037039251725]
そこで本研究では,分子-テキスト対を構造的類似性保持損失で拡張するAMOLEを提案する。
また, 専門知識の少ない分子から, 専門知識の少ない分子へ, 知識を伝達する専門的再構築損失を提案する。
論文 参考訳(メタデータ) (2024-07-12T07:09:10Z) - Learning Multi-view Molecular Representations with Structured and Unstructured Knowledge [14.08112359246334]
本稿では, 化学構造から多視点分子知識を抽出する表現学習モデルMV-Mol, バイオメディカルテキストからの非構造化知識, 知識グラフからの構造化知識について述べる。
MV-Molは分子特性予測に有効であることを示す。
論文 参考訳(メタデータ) (2024-06-14T08:48:10Z) - MolX: Enhancing Large Language Models for Molecular Learning with A Multi-Modal Extension [34.586861881519134]
タスクハンドリング能力の強い大規模言語モデル(LLM)は、様々な分野において顕著な進歩を見せている。
本研究は、分子をマルチモーダルな外部モジュール、すなわちMollXに装備することで、分子の理解能力を高めることを目的とする。
特に,分子の表現にSMILES文字列を直接使用する代わりに,特定のエンコーダを用いて,SMILES文字列と2次元分子グラフ表現の両方から微細な特徴を抽出する。
論文 参考訳(メタデータ) (2024-06-10T20:25:18Z) - MolCA: Molecular Graph-Language Modeling with Cross-Modal Projector and
Uni-Modal Adapter [91.77292826067465]
言語モデル(LM)は、様々な1Dテキスト関連タスクにおいて、印象的な分子理解能力を示す。
しかし、それらは本質的に2次元グラフの認識を欠いている。
クロスモーダルプロジェクタとユニモーダルアダプタを用いた分子グラフ言語モデリング(MolCA: Molecular Graph-Language Modeling)を提案する。
論文 参考訳(メタデータ) (2023-10-19T14:52:58Z) - Empowering Molecule Discovery for Molecule-Caption Translation with Large Language Models: A ChatGPT Perspective [53.300288393173204]
大規模言語モデル(LLM)は、様々なクロスモーダルタスクにおいて顕著なパフォーマンスを示している。
本研究では,分子カプセル翻訳のためのインコンテキストFew-Shot Molecule Learningパラダイムを提案する。
分子理解とテキストベースの分子生成を含む分子キャプション翻訳におけるMollReGPTの有効性を評価する。
論文 参考訳(メタデータ) (2023-06-11T08:16:25Z) - Implicit Geometry and Interaction Embeddings Improve Few-Shot Molecular
Property Prediction [53.06671763877109]
我々は, 複雑な分子特性を符号化した分子埋め込みを開発し, 数発の分子特性予測の性能を向上させる。
我々の手法は大量の合成データ、すなわち分子ドッキング計算の結果を利用する。
複数の分子特性予測ベンチマークでは、埋め込み空間からのトレーニングにより、マルチタスク、MAML、プロトタイプラーニング性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-02-04T01:32:40Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。