論文の概要: BioMol-MQA: A Multi-Modal Question Answering Dataset For LLM Reasoning Over Bio-Molecular Interactions
- arxiv url: http://arxiv.org/abs/2506.05766v1
- Date: Fri, 06 Jun 2025 05:48:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.341152
- Title: BioMol-MQA: A Multi-Modal Question Answering Dataset For LLM Reasoning Over Bio-Molecular Interactions
- Title(参考訳): BioMol-MQA: 生体分子相互作用に関するLLM推論のためのマルチモーダル質問回答データセット
- Authors: Saptarshi Sengupta, Shuhua Yang, Paul Kwong Yu, Fali Wang, Suhang Wang,
- Abstract要約: BioMol-MQA データセットは (i) テキストと情報検索のための分子構造を持つマルチモーダル知識グラフ (KG) と (ii) マルチモーダル KG 上での検索と推論において LLM 機能をテストするために設計された課題からなる。
我々のベンチマークでは、既存のLLMはこれらの質問に答えるのに苦労しており、必要なバックグラウンドデータしか与えられていないことが示されており、強力なRAGフレームワークの必要性を示唆している。
- 参考スコア(独自算出の注目度): 22.805931447412668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval augmented generation (RAG) has shown great power in improving Large Language Models (LLMs). However, most existing RAG-based LLMs are dedicated to retrieving single modality information, mainly text; while for many real-world problems, such as healthcare, information relevant to queries can manifest in various modalities such as knowledge graph, text (clinical notes), and complex molecular structure. Thus, being able to retrieve relevant multi-modality domain-specific information, and reason and synthesize diverse knowledge to generate an accurate response is important. To address the gap, we present BioMol-MQA, a new question-answering (QA) dataset on polypharmacy, which is composed of two parts (i) a multimodal knowledge graph (KG) with text and molecular structure for information retrieval; and (ii) challenging questions that designed to test LLM capabilities in retrieving and reasoning over multimodal KG to answer questions. Our benchmarks indicate that existing LLMs struggle to answer these questions and do well only when given the necessary background data, signaling the necessity for strong RAG frameworks.
- Abstract(参考訳): Retrieval augmented generation (RAG) は、Large Language Models (LLMs) の改善に大きく貢献している。
しかしながら、既存のRAGベースのLCMの多くは、主にテキストの単一のモダリティ情報を取得することに特化しているが、医療などの現実的な問題では、クエリに関連する情報は知識グラフ、テキスト(クリニカルノート)、複雑な分子構造などの様々なモダリティに表れる。
したがって、関係するマルチモーダルなドメイン固有情報を検索し、様々な知識を合成して正確な応答を生成することが重要である。
このギャップに対処するため、我々は2つの部分からなる多薬品に関する新しいQAデータセットであるBioMol-MQAを提示する。
一 情報検索のためのテキスト及び分子構造を有するマルチモーダル知識グラフ(KG)
(2)マルチモーダルKGの検索と推論においてLLM機能をテストするために設計された課題。
我々のベンチマークでは、既存のLLMはこれらの質問に答えるのに苦労しており、必要なバックグラウンドデータしか与えられていないことが示されており、強力なRAGフレームワークの必要性を示唆している。
関連論文リスト
- RAG-Enhanced Collaborative LLM Agents for Drug Discovery [28.025359322895905]
CLADDは、薬物発見タスクに適した、検索増強世代(RAG)内蔵のエージェントシステムである。
汎用LLMやドメイン固有のLLM、そして従来のディープラーニングのアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-22T00:12:52Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.5712549836791]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - ELOQ: Resources for Enhancing LLM Detection of Out-of-Scope Questions [52.33835101586687]
本研究では,検索した文書が意味的に類似しているように見えるスコープ外質問について検討するが,答えるために必要な情報がない。
本稿では,閉経後の文書から多様なスコープ外質問を自動的に生成するための,幻覚に基づくELOQを提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - BioRAG: A RAG-LLM Framework for Biological Question Reasoning [14.05505988436551]
本稿では,Large Language Models (LLMs) フレームワークを組み込んだ新規な検索拡張生成(RAG)であるBioRAGを紹介する。
このアプローチは、基本的な知識として2200万の科学論文を解析、索引付け、セグメント化することから始まり、続いて、このドメインに適した特別な埋め込みモデルをトレーニングします。
最新の情報を必要とするクエリに対して、BioRAGは質問を分解し、検索エンジンに組み込まれた反復的な検索プロセスを用いてステップバイステップの推論を行う。
論文 参考訳(メタデータ) (2024-08-02T08:37:03Z) - Improving Retrieval-Augmented Generation in Medicine with Iterative Follow-up Questions [42.73799041840482]
i-MedRAGは、過去の情報検索の試みに基づいてフォローアップクエリを反復的に要求するシステムである。
ゼロショットのi-MedRAGは、GPT-3.5上で既存のプロンプトエンジニアリングと微調整の方法をすべて上回ります。
i-MedRAGは、順応的にフォローアップクエリを問い合わせて推論チェーンを形成し、医学的な質問の詳細な分析を提供する。
論文 参考訳(メタデータ) (2024-08-01T17:18:17Z) - Chain-of-Discussion: A Multi-Model Framework for Complex Evidence-Based Question Answering [55.295699268654545]
本稿では,オープンソースのLarge Language Model間の相乗効果を利用する新しいChain-ofDiscussionフレームワークを提案する。
実験の結果,複数のLSM間の議論は回答の質を高める上で重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2024-02-26T05:31:34Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。