論文の概要: ModuLM: Enabling Modular and Multimodal Molecular Relational Learning with Large Language Models
- arxiv url: http://arxiv.org/abs/2506.00880v1
- Date: Sun, 01 Jun 2025 07:44:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.716577
- Title: ModuLM: Enabling Modular and Multimodal Molecular Relational Learning with Large Language Models
- Title(参考訳): ModuLM:大規模言語モデルによるモジュール型およびマルチモーダル分子関係学習の実現
- Authors: Zhuo Chen, Yizhen Zheng, Huan Yee Koh, Hongxin Xiang, Linjiang Chen, Wenjie Du, Yang Wang,
- Abstract要約: 分子学習は分子対間の相互作用を理解することを目的としており、生化学研究の進展に重要な役割を果たしている。
近年の大規模言語モデル (LLM) の発展に伴い, MRL と LLM の統合に関する研究が増えている。
フレキシブルLLMモデル構築と多様な分子表現をサポートするためのフレームワークであるModuLMを提案する。
- 参考スコア(独自算出の注目度): 15.585313548455517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Molecular Relational Learning (MRL) aims to understand interactions between molecular pairs, playing a critical role in advancing biochemical research. With the recent development of large language models (LLMs), a growing number of studies have explored the integration of MRL with LLMs and achieved promising results. However, the increasing availability of diverse LLMs and molecular structure encoders has significantly expanded the model space, presenting major challenges for benchmarking. Currently, there is no LLM framework that supports both flexible molecular input formats and dynamic architectural switching. To address these challenges, reduce redundant coding, and ensure fair model comparison, we propose ModuLM, a framework designed to support flexible LLM-based model construction and diverse molecular representations. ModuLM provides a rich suite of modular components, including 8 types of 2D molecular graph encoders, 11 types of 3D molecular conformation encoders, 7 types of interaction layers, and 7 mainstream LLM backbones. Owing to its highly flexible model assembly mechanism, ModuLM enables the dynamic construction of over 50,000 distinct model configurations. In addition, we provide comprehensive results to demonstrate the effectiveness of ModuLM in supporting LLM-based MRL tasks.
- Abstract(参考訳): 分子関係学習(MRL)は、分子対間の相互作用を理解することを目的としており、生化学研究の進展に重要な役割を果たしている。
近年の大規模言語モデル (LLMs) の発展に伴い, MRL と LLM の統合が検討され, 有望な結果が得られた。
しかし、多様なLCMと分子構造エンコーダの可用性が増大し、モデル空間が大幅に拡張され、ベンチマークの大きな課題が提示された。
現在、フレキシブルな分子入力フォーマットと動的アーキテクチャスイッチングの両方をサポートするLLMフレームワークはありません。
これらの課題に対処し、冗長な符号化を減らし、公平なモデル比較を確保するために、柔軟なLCMモデル構築と多様な分子表現をサポートするために設計されたModuLMを提案する。
ModuLMは8種類の2D分子グラフエンコーダ、11種類の3D分子コンフォメーションエンコーダ、7種類の相互作用層、7種類のLLMバックボーンを含む、豊富なモジュラーコンポーネントを提供する。
非常に柔軟なモデルアセンブリ機構のため、ModuLMは50,000以上の異なるモデル構成を動的に構築することができる。
さらに,LLMに基づくMRLタスクを支援する上で,ModuLMの有効性を示すための総合的な結果も提供する。
関連論文リスト
- LLaVA-KD: A Framework of Distilling Multimodal Large Language Models [70.19607283302712]
本稿では,l-MLLMからs-MLLMへ知識を伝達する新しいフレームワークを提案する。
具体的には,l-MLLMとs-MLLMの視覚的テキスト出力分布のばらつきを最小限に抑えるために,MDist(Multimodal Distillation)を導入する。
また,S-MLLMの可能性を完全に活用するための3段階学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-21T17:41:28Z) - FlexMol: A Flexible Toolkit for Benchmarking Molecular Relational Learning [46.68373573330836]
多様なモデルアーキテクチャの構築と評価を容易にするために設計された総合ツールキットであるFlexMolを紹介する。
FlexMolは16の薬物エンコーダ、13のタンパク質配列エンコーダ、9のタンパク質構造エンコーダ、および7つの相互作用レイヤを含む、堅牢なプリセットモデルコンポーネント群を提供する。
使い易いAPIと柔軟性により、FlexMolは70,000以上の異なるモデルアーキテクチャの組み合わせを動的に構築するのをサポートする。
論文 参考訳(メタデータ) (2024-10-19T06:53:11Z) - Configurable Foundation Models: Building LLMs from a Modular Perspective [115.63847606634268]
LLMを多数の機能モジュールに分解する傾向が高まり、複雑なタスクに取り組むためにモジュールの一部とモジュールの動的アセンブリを推論することができる。
各機能モジュールを表すブロックという用語を造語し、モジュール化された構造をカスタマイズ可能な基礎モデルとして定義する。
検索とルーティング,マージ,更新,成長という,レンガ指向の4つの操作を提示する。
FFN層はニューロンの機能的特殊化と機能的ニューロン分割を伴うモジュラーパターンに従うことが判明した。
論文 参考訳(メタデータ) (2024-09-04T17:01:02Z) - Many-Shot In-Context Learning for Molecular Inverse Design [56.65345962071059]
大規模言語モデル(LLM)は、数ショットのインコンテキスト学習(ICL)において、優れたパフォーマンスを示している。
マルチショットICLで利用可能な実験データの不足を克服する,新しい半教師付き学習手法を開発した。
示すように、この新しい手法は、既存の分子設計のためのICL法を大幅に改善し、科学者にとってアクセスしやすく、使いやすくする。
論文 参考訳(メタデータ) (2024-07-26T21:10:50Z) - Model Composition for Multimodal Large Language Models [71.5729418523411]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - MolTC: Towards Molecular Relational Modeling In Language Models [28.960416816491392]
分子間相互作用予測のための新しい枠組みとして,分子間相互作用予測法(分子間相互作用予測法)を提案する。
我々の実験は4000,000以上の分子対を含む様々なデータセットで実施され、現在のGNNおよびLLMベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-02-06T07:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。