論文の概要: A quantitative analysis of knowledge-learning preferences in large language models in molecular science
- arxiv url: http://arxiv.org/abs/2402.04119v2
- Date: Fri, 03 Jan 2025 07:29:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:09:08.697973
- Title: A quantitative analysis of knowledge-learning preferences in large language models in molecular science
- Title(参考訳): 分子科学における大規模言語モデルにおける知識学習嗜好の定量的分析
- Authors: Pengfei Liu, Jun Tao, Zhixiang Ren,
- Abstract要約: 大規模言語モデル(LLM)は、自然言語処理(NLP)の観点から科学的問題に取り組むための新しい研究パラダイムを導入している。
LLMは分子の理解と生成を著しく強化し、しばしば複雑な分子パターンをデコードし合成する能力で既存の手法を超越している。
我々は、ChEBI-20-MMというマルチモーダルベンチマークを提案し、モデルとデータモダリティとの互換性と知識獲得を評価する1263の実験を行った。
- 参考スコア(独自算出の注目度): 24.80165173525286
- License:
- Abstract: Deep learning has significantly advanced molecular modeling and design, enabling efficient understanding and discovery of novel molecules. In particular, large language models (LLMs) introduce a fresh research paradigm to tackle scientific problems from a natural language processing (NLP) perspective. LLMs significantly enhance our understanding and generation of molecules, often surpassing existing methods with their capabilities to decode and synthesize complex molecular patterns. However, two key issues remain: how to quantify the match between model and data modalities and how to identify the knowledge-learning preferences of models. To address these challenges, we propose a multi-modal benchmark, named ChEBI-20-MM, and perform 1263 experiments to assess the model's compatibility with data modalities and knowledge acquisition. Through the modal transition probability matrix, we provide insights into the most suitable modalities for tasks. Furthermore, we introduce a statistically interpretable approach to discover context-specific knowledge mapping by localized feature filtering. Our analysis offers an exploration of the learning mechanism and paves the way for advancing LLMs in molecular science.
- Abstract(参考訳): 深層学習は分子モデリングと設計を著しく進歩させ、新しい分子の効率的な理解と発見を可能にした。
特に、大規模言語モデル(LLM)は、自然言語処理(NLP)の観点から科学的問題に取り組むための新しい研究パラダイムを導入している。
LLMは分子の理解と生成を著しく強化し、しばしば複雑な分子パターンをデコードし合成する能力で既存の手法を超越している。
しかし、モデルとデータモダリティのマッチングを定量化する方法と、モデルの知識-学習の好みを特定する方法の2つの大きな問題が残る。
これらの課題に対処するため、ChEBI-20-MMと呼ばれるマルチモーダルベンチマークを提案し、モデルとデータモダリティとの互換性と知識獲得を評価する1263の実験を行った。
モーダル遷移確率行列を通じて、タスクに最も適したモーダル性についての洞察を提供する。
さらに,局所化特徴フィルタリングによる文脈固有知識マッピングの統計的解釈手法を提案する。
我々の分析は、学習機構を探索し、分子科学におけるLLMの進歩の道を開くものである。
関連論文リスト
- Mol-LLaMA: Towards General Understanding of Molecules in Large Molecular Language Model [55.87790704067848]
Mol-LLaMAは、分子を中心とした一般的な知識をマルチモーダル命令チューニングによって把握する大規模な分子言語モデルである。
分子の特徴の理解を深めるために,異なる分子エンコーダの相補的な情報を統合するモジュールを導入する。
論文 参考訳(メタデータ) (2025-02-19T05:49:10Z) - MolCap-Arena: A Comprehensive Captioning Benchmark on Language-Enhanced Molecular Property Prediction [44.27112553103388]
分子特性予測を拡張した大規模言語モデル(LLM)の最初の包括的なベンチマークである分子キャプションアリーナを提示する。
汎用分子キャプタとドメイン特異的分子キャプタを含む20以上のLDMを,様々な予測タスクで評価した。
以上の結果から,LLM抽出した知識が最先端の分子表現を向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-01T17:03:16Z) - Explainable AI Methods for Multi-Omics Analysis: A Survey [3.885941688264509]
マルチオミクス(multi-omics)とは、複数の「オム」から派生したデータの積分解析である。
深層学習の手法は、マルチオミクスデータの統合や、分子間相互作用の洞察、複雑な疾患の研究の強化にますます活用されている。
これらのモデルは、多くの相互接続層と非線形関係を持ち、しばしばブラックボックスとして機能し、意思決定プロセスにおける透明性を欠いている。
このレビューでは、マルチオミクス研究において、xAIが深層学習モデルの解釈可能性を改善する方法について検討し、臨床医に明確な洞察を与える可能性を強調した。
論文 参考訳(メタデータ) (2024-10-15T05:01:17Z) - Molecular Graph Representation Learning Integrating Large Language Models with Domain-specific Small Models [12.744381867301353]
大規模言語モデルとドメイン固有小モデルを統合する新しい分子グラフ表現学習フレームワークを提案する。
分子グラフとそれに対応する記述文を含む多モードアライメント法を用いて、分子表現の事前学習を誘導する。
論文 参考訳(メタデータ) (2024-08-19T16:11:59Z) - Many-Shot In-Context Learning for Molecular Inverse Design [56.65345962071059]
大規模言語モデル(LLM)は、数ショットのインコンテキスト学習(ICL)において、優れたパフォーマンスを示している。
マルチショットICLで利用可能な実験データの不足を克服する,新しい半教師付き学習手法を開発した。
示すように、この新しい手法は、既存の分子設計のためのICL法を大幅に改善し、科学者にとってアクセスしやすく、使いやすくする。
論文 参考訳(メタデータ) (2024-07-26T21:10:50Z) - Instruction Multi-Constraint Molecular Generation Using a Teacher-Student Large Language Model [49.64512917330373]
本稿では,学生に類似した多制約分子生成大言語モデルTSMMGを紹介する。
TSMMGを訓練するために、これらの「教師」から分子知識を抽出し、大量のテキスト-分子対を構築する。
我々は,TSMMGが複雑で自然言語で記述された特性を満たす分子を生成できることを実験的に明らかにした。
論文 参考訳(メタデータ) (2024-03-20T02:15:55Z) - MolTC: Towards Molecular Relational Modeling In Language Models [28.960416816491392]
分子間相互作用予測のための新しい枠組みとして,分子間相互作用予測法(分子間相互作用予測法)を提案する。
我々の実験は4000,000以上の分子対を含む様々なデータセットで実施され、現在のGNNおよびLLMベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-02-06T07:51:56Z) - Empowering Molecule Discovery for Molecule-Caption Translation with Large Language Models: A ChatGPT Perspective [53.300288393173204]
大規模言語モデル(LLM)は、様々なクロスモーダルタスクにおいて顕著なパフォーマンスを示している。
本研究では,分子カプセル翻訳のためのインコンテキストFew-Shot Molecule Learningパラダイムを提案する。
分子理解とテキストベースの分子生成を含む分子キャプション翻訳におけるMollReGPTの有効性を評価する。
論文 参考訳(メタデータ) (2023-06-11T08:16:25Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z) - Knowledge-informed Molecular Learning: A Survey on Paradigm Transfer [20.893861195128643]
機械学習、特にディープラーニングは、生化学領域における分子研究を著しく推進している。
伝統的に、そのような研究のためのモデリングは、いくつかのパラダイムを中心に行われてきた。
純粋にデータ駆動モデルの生成と解読性を高めるため、研究者はこれらの分子研究モデルに生化学的ドメイン知識を組み込んだ。
論文 参考訳(メタデータ) (2022-02-17T06:18:02Z) - Learning Neural Generative Dynamics for Molecular Conformation
Generation [89.03173504444415]
分子グラフから分子コンフォメーション(つまり3d構造)を生成する方法を検討した。
分子グラフから有効かつ多様なコンフォーメーションを生成する新しい確率論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-02-20T03:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。