論文の概要: MolEdit: Knowledge Editing for Multimodal Molecule Language Models
- arxiv url: http://arxiv.org/abs/2511.12770v1
- Date: Sun, 16 Nov 2025 20:48:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.532754
- Title: MolEdit: Knowledge Editing for Multimodal Molecule Language Models
- Title(参考訳): MolEdit: マルチモーダル分子言語モデルのための知識編集
- Authors: Zhenyu Lei, Patrick Soga, Yaochen Zhu, Yinhan He, Yushun Dong, Jundong Li,
- Abstract要約: MolEditは分子対カプセル生成とキャプション対分子生成のためのフレームワークである。
MolEditにはMulti-Expert Knowledge Adapterが組み込まれており、異なる分子ファセットの専門の専門家に、Expertise-Aware Editing Switcherで編集をルーティングする。
MolEditは信頼性を最大18.8%向上し、効率を保ちながらベースラインよりも12.0%良いローカリティを提供する。
- 参考スコア(独自算出の注目度): 57.85765246726558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding and continuously refining multimodal molecular knowledge is crucial for advancing biomedicine, chemistry, and materials science. Molecule language models (MoLMs) have become powerful tools in these domains, integrating structural representations (e.g., SMILES strings, molecular graphs) with rich contextual descriptions (e.g., physicochemical properties). However, MoLMs can encode and propagate inaccuracies due to outdated web-mined training corpora or malicious manipulation, jeopardizing downstream discovery pipelines. While knowledge editing has been explored for general-domain AI, its application to MoLMs remains uncharted, presenting unique challenges due to the multifaceted and interdependent nature of molecular knowledge. In this paper, we take the first step toward MoLM editing for two critical tasks: molecule-to-caption generation and caption-to-molecule generation. To address molecule-specific challenges, we propose MolEdit, a powerful framework that enables targeted modifications while preserving unrelated molecular knowledge. MolEdit combines a Multi-Expert Knowledge Adapter that routes edits to specialized experts for different molecular facets with an Expertise-Aware Editing Switcher that activates the adapters only when input closely matches the stored edits across all expertise, minimizing interference with unrelated knowledge. To systematically evaluate editing performance, we introduce MEBench, a comprehensive benchmark assessing multiple dimensions, including Reliability (accuracy of the editing), Locality (preservation of irrelevant knowledge), and Generality (robustness to reformed queries). Across extensive experiments on two popular MoLM backbones, MolEdit delivers up to 18.8% higher Reliability and 12.0% better Locality than baselines while maintaining efficiency. The code is available at: https://github.com/LzyFischer/MolEdit.
- Abstract(参考訳): 生物医学、化学、材料科学の発展には、マルチモーダル分子知識の理解と継続的な精製が不可欠である。
分子言語モデル(MoLM)はこれらの領域において強力なツールとなり、構造表現(例えば、SMILES文字列、分子グラフ)とリッチな文脈記述(例えば、物理化学的性質)を統合する。
しかし、MOLMは、古いウェブマイニングのトレーニングコーパスや悪意のある操作によって、下流の発見パイプラインを危険にさらすために、不正確な情報をエンコードし、伝播することができる。
一般ドメインAIのための知識編集が検討されているが、MOLMへの応用はいまだに未完成であり、分子知識の多面的・相互依存的な性質のために固有の課題が提示されている。
本稿では,分子対カプセル生成とキャプション対分子生成という2つの重要なタスクに対して,MOLM編集の第一歩を踏み出す。
分子特異的な課題に対処するため,無関係な分子知識を維持しつつ,標的となる修飾を可能にする強力なフレームワークであるMolEditを提案する。
MolEditはMulti-Expert Knowledge Adapterを組み合わせることで、異なる分子ファセットの専門専門家に編集をルーティングする。Expertise-Aware Editing Switcherは、入力がすべての専門知識で保存された編集と密接に一致する場合にのみアダプタを活性化し、無関係な知識との干渉を最小限にする。
編集性能を体系的に評価するために、信頼性(編集精度)、局所性(無関係な知識の保存)、一般性(改革されたクエリへの悪影響)など、複数の次元を総合的に評価するベンチマークであるMEBenchを紹介する。
2つの人気のあるMOLMバックボーンに関する広範な実験の中で、MorEditは信頼性を最大18.8%向上し、効率を保ちながらベースラインよりも12.0%良い局所性を提供する。
コードは、https://github.com/LzyFischer/MolEdit.comで入手できる。
関連論文リスト
- KnowMol: Advancing Molecular Large Language Models with Multi-Level Chemical Knowledge [73.51130155601824]
KnowMol-100Kは100Kの微細な分子アノテーションを持つ大規模データセットである。
また,既存の分子表現戦略の限界に効果的に対処する,化学的に不変な分子表現も提案する。
KnowMolは、分子理解および生成タスク間で優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-10-22T11:23:58Z) - Mol-LLaMA: Towards General Understanding of Molecules in Large Molecular Language Model [52.84455878597969]
Mol-LLaMAは、分子を中心とした一般的な知識を把握した大きな分子言語モデルである。
分子理解を改善するために,分子エンコーダの相補的な情報を統合するモジュールを提案する。
論文 参考訳(メタデータ) (2025-02-19T05:49:10Z) - MolX: Enhancing Large Language Models for Molecular Understanding With A Multi-Modal Extension [44.97089022713424]
タスクハンドリング能力の強い大規模言語モデル(LLM)は、様々な分野において顕著な進歩を見せている。
本研究は, 分子の理解能力を高めるために, MolX と呼ばれるマルチモーダル外部モジュールを組み込むことにより, LLM の分子理解能力を高めることを目的とする。
手作りの分子指紋は、その埋め込みドメイン知識を活用するために組み込まれている。
論文 参考訳(メタデータ) (2024-06-10T20:25:18Z) - Instruction Multi-Constraint Molecular Generation Using a Teacher-Student Large Language Model [49.64512917330373]
本稿では,学生に類似した多制約分子生成大言語モデルTSMMGを紹介する。
TSMMGを訓練するために、これらの「教師」から分子知識を抽出し、大量のテキスト-分子対を構築する。
我々は,TSMMGが複雑で自然言語で記述された特性を満たす分子を生成できることを実験的に明らかにした。
論文 参考訳(メタデータ) (2024-03-20T02:15:55Z) - Empowering Molecule Discovery for Molecule-Caption Translation with Large Language Models: A ChatGPT Perspective [53.300288393173204]
大規模言語モデル(LLM)は、様々なクロスモーダルタスクにおいて顕著なパフォーマンスを示している。
本研究では,分子カプセル翻訳のためのインコンテキストFew-Shot Molecule Learningパラダイムを提案する。
分子理解とテキストベースの分子生成を含む分子キャプション翻訳におけるMollReGPTの有効性を評価する。
論文 参考訳(メタデータ) (2023-06-11T08:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。