論文の概要: ModuLM: Enabling Modular and Multimodal Molecular Relational Learning with Large Language Models
- arxiv url: http://arxiv.org/abs/2506.00880v1
- Date: Sun, 01 Jun 2025 07:44:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.716577
- Title: ModuLM: Enabling Modular and Multimodal Molecular Relational Learning with Large Language Models
- Title(参考訳): ModuLM:大規模言語モデルによるモジュール型およびマルチモーダル分子関係学習の実現
- Authors: Zhuo Chen, Yizhen Zheng, Huan Yee Koh, Hongxin Xiang, Linjiang Chen, Wenjie Du, Yang Wang,
- Abstract要約: 分子学習は分子対間の相互作用を理解することを目的としており、生化学研究の進展に重要な役割を果たしている。
近年の大規模言語モデル (LLM) の発展に伴い, MRL と LLM の統合に関する研究が増えている。
フレキシブルLLMモデル構築と多様な分子表現をサポートするためのフレームワークであるModuLMを提案する。
- 参考スコア(独自算出の注目度): 15.585313548455517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Molecular Relational Learning (MRL) aims to understand interactions between molecular pairs, playing a critical role in advancing biochemical research. With the recent development of large language models (LLMs), a growing number of studies have explored the integration of MRL with LLMs and achieved promising results. However, the increasing availability of diverse LLMs and molecular structure encoders has significantly expanded the model space, presenting major challenges for benchmarking. Currently, there is no LLM framework that supports both flexible molecular input formats and dynamic architectural switching. To address these challenges, reduce redundant coding, and ensure fair model comparison, we propose ModuLM, a framework designed to support flexible LLM-based model construction and diverse molecular representations. ModuLM provides a rich suite of modular components, including 8 types of 2D molecular graph encoders, 11 types of 3D molecular conformation encoders, 7 types of interaction layers, and 7 mainstream LLM backbones. Owing to its highly flexible model assembly mechanism, ModuLM enables the dynamic construction of over 50,000 distinct model configurations. In addition, we provide comprehensive results to demonstrate the effectiveness of ModuLM in supporting LLM-based MRL tasks.
- Abstract(参考訳): 分子関係学習(MRL)は、分子対間の相互作用を理解することを目的としており、生化学研究の進展に重要な役割を果たしている。
近年の大規模言語モデル (LLMs) の発展に伴い, MRL と LLM の統合が検討され, 有望な結果が得られた。
しかし、多様なLCMと分子構造エンコーダの可用性が増大し、モデル空間が大幅に拡張され、ベンチマークの大きな課題が提示された。
現在、フレキシブルな分子入力フォーマットと動的アーキテクチャスイッチングの両方をサポートするLLMフレームワークはありません。
これらの課題に対処し、冗長な符号化を減らし、公平なモデル比較を確保するために、柔軟なLCMモデル構築と多様な分子表現をサポートするために設計されたModuLMを提案する。
ModuLMは8種類の2D分子グラフエンコーダ、11種類の3D分子コンフォメーションエンコーダ、7種類の相互作用層、7種類のLLMバックボーンを含む、豊富なモジュラーコンポーネントを提供する。
非常に柔軟なモデルアセンブリ機構のため、ModuLMは50,000以上の異なるモデル構成を動的に構築することができる。
さらに,LLMに基づくMRLタスクを支援する上で,ModuLMの有効性を示すための総合的な結果も提供する。
関連論文リスト
- LLaVA-KD: A Framework of Distilling Multimodal Large Language Models [70.19607283302712]
本稿では,l-MLLMからs-MLLMへ知識を伝達する新しいフレームワークを提案する。
具体的には,l-MLLMとs-MLLMの視覚的テキスト出力分布のばらつきを最小限に抑えるために,MDist(Multimodal Distillation)を導入する。
また,S-MLLMの可能性を完全に活用するための3段階学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-21T17:41:28Z) - FlexMol: A Flexible Toolkit for Benchmarking Molecular Relational Learning [46.68373573330836]
多様なモデルアーキテクチャの構築と評価を容易にするために設計された総合ツールキットであるFlexMolを紹介する。
FlexMolは16の薬物エンコーダ、13のタンパク質配列エンコーダ、9のタンパク質構造エンコーダ、および7つの相互作用レイヤを含む、堅牢なプリセットモデルコンポーネント群を提供する。
使い易いAPIと柔軟性により、FlexMolは70,000以上の異なるモデルアーキテクチャの組み合わせを動的に構築するのをサポートする。
論文 参考訳(メタデータ) (2024-10-19T06:53:11Z) - Multimodal Large Language Models for Inverse Molecular Design with Retrosynthetic Planning [32.745100532916204]
大型言語モデル(LLM)は統合されたイメージを持つが、それらをグラフに適応させることは依然として困難である。
Llamoleは、インターリーブテキストとグラフ生成が可能な最初のマルチモーダルLLMである。
Llamoleは、制御可能な分子設計と再合成計画のために、12のメトリクスにまたがる14の適応LDMを著しく上回っている。
論文 参考訳(メタデータ) (2024-10-05T16:35:32Z) - Configurable Foundation Models: Building LLMs from a Modular Perspective [115.63847606634268]
LLMを多数の機能モジュールに分解する傾向が高まり、複雑なタスクに取り組むためにモジュールの一部とモジュールの動的アセンブリを推論することができる。
各機能モジュールを表すブロックという用語を造語し、モジュール化された構造をカスタマイズ可能な基礎モデルとして定義する。
検索とルーティング,マージ,更新,成長という,レンガ指向の4つの操作を提示する。
FFN層はニューロンの機能的特殊化と機能的ニューロン分割を伴うモジュラーパターンに従うことが判明した。
論文 参考訳(メタデータ) (2024-09-04T17:01:02Z) - Many-Shot In-Context Learning for Molecular Inverse Design [56.65345962071059]
大規模言語モデル(LLM)は、数ショットのインコンテキスト学習(ICL)において、優れたパフォーマンスを示している。
マルチショットICLで利用可能な実験データの不足を克服する,新しい半教師付き学習手法を開発した。
示すように、この新しい手法は、既存の分子設計のためのICL法を大幅に改善し、科学者にとってアクセスしやすく、使いやすくする。
論文 参考訳(メタデータ) (2024-07-26T21:10:50Z) - Is Modularity Transferable? A Case Study through the Lens of Knowledge Distillation [59.37775534633868]
同族PLM間で事前訓練されたタスク固有のPEFTモジュールを転送するための極めて簡単なアプローチを提案する。
また,不整合性PLM間のモジュールの移動を,推論複雑性の変化を伴わずに行う方法を提案する。
論文 参考訳(メタデータ) (2024-03-27T17:50:00Z) - Model Composition for Multimodal Large Language Models [71.5729418523411]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - MolTC: Towards Molecular Relational Modeling In Language Models [28.960416816491392]
分子間相互作用予測のための新しい枠組みとして,分子間相互作用予測法(分子間相互作用予測法)を提案する。
我々の実験は4000,000以上の分子対を含む様々なデータセットで実施され、現在のGNNおよびLLMベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-02-06T07:51:56Z) - Macaw-LLM: Multi-Modal Language Modeling with Image, Audio, Video, and
Text Integration [50.94902442781148]
視覚情報,音声情報,テキスト情報をシームレスに統合する新しい多モード大言語モデル(LLM)を提案する。
Macaw-LLMは、マルチモーダルデータを符号化するモダリティモジュール、事前訓練されたLLMを利用する認知モジュール、多様な表現を調和させるアライメントモジュールの3つの主要コンポーネントから構成される。
我々は,69K画像インスタンスと50Kビデオインスタンスを含む,大規模なマルチモーダル・インストラクション・データセットを構築した。
論文 参考訳(メタデータ) (2023-06-15T12:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。