論文の概要: Knowledge Graph Based Agent for Complex, Knowledge-Intensive QA in Medicine
- arxiv url: http://arxiv.org/abs/2410.04660v1
- Date: Mon, 7 Oct 2024 00:17:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 02:47:36.360501
- Title: Knowledge Graph Based Agent for Complex, Knowledge-Intensive QA in Medicine
- Title(参考訳): 複雑な知識集約型QAのための知識グラフベースエージェント
- Authors: Xiaorui Su, Yibo Wang, Shanghua Gao, Xiaolong Liu, Valentina Giunchiglia, Djork-Arné Clevert, Marinka Zitnik,
- Abstract要約: 生物医学の科学者は推論への単一のアプローチに頼っていない。
KGARevionは、医療クエリの複雑さに対処するために設計された知識グラフベースのエージェントである。
- 参考スコア(独自算出の注目度): 31.080514888803886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biomedical knowledge is uniquely complex and structured, requiring distinct reasoning strategies compared to other scientific disciplines like physics or chemistry. Biomedical scientists do not rely on a single approach to reasoning; instead, they use various strategies, including rule-based, prototype-based, and case-based reasoning. This diversity calls for flexible approaches that accommodate multiple reasoning strategies while leveraging in-domain knowledge. We introduce KGARevion, a knowledge graph (KG) based agent designed to address the complexity of knowledge-intensive medical queries. Upon receiving a query, KGARevion generates relevant triplets by using the knowledge base of the LLM. These triplets are then verified against a grounded KG to filter out erroneous information and ensure that only accurate, relevant data contribute to the final answer. Unlike RAG-based models, this multi-step process ensures robustness in reasoning while adapting to different models of medical reasoning. Evaluations on four gold-standard medical QA datasets show that KGARevion improves accuracy by over 5.2%, outperforming 15 models in handling complex medical questions. To test its capabilities, we curated three new medical QA datasets with varying levels of semantic complexity, where KGARevion achieved a 10.4% improvement in accuracy.
- Abstract(参考訳): 生物医学の知識は、物理学や化学といった他の科学分野と比較して、独特な推論戦略を必要とする、独特で複雑で構造的なものである。
バイオメディカルサイエンティストは、推論に単一のアプローチに頼るのではなく、ルールベース、プロトタイプベース、ケースベースの推論など、さまざまな戦略を使用する。
この多様性は、ドメイン内の知識を活用しながら、複数の推論戦略に対応する柔軟なアプローチを要求する。
KGARevionは知識集約型医療クエリの複雑さに対処するために設計された知識グラフ(KG)ベースのエージェントである。
クエリを受信すると、KGARevionはLLMの知識ベースを使用して関連する三つ子を生成する。
これらの三重項は接地されたKGに対して検証され、誤った情報をフィルタリングし、正確な関連データが最終回答に寄与することを保証する。
RAGベースのモデルとは異なり、このマルチステッププロセスは、医学的推論の異なるモデルに適応しながら、推論の堅牢性を保証する。
4つの金標準医療QAデータセットの評価によると、KGARevionは5.2%以上の精度を向上し、複雑な医療問題を扱う15のモデルを上回っている。
そこではKGARevionが10.4%の精度向上を達成した。
関連論文リスト
- RGAR: Recurrence Generation-augmented Retrieval for Factual-aware Medical Question Answering [29.065294682044]
現在のパラダイムであるRetrieval-Augmented Generation (RAG)は、大規模なコーパス検索を通じて専門的な医療知識を取得する。
本稿では,2つの情報源から関連する事実知識と概念知識の両方を検索する再帰生成拡張検索フレームワークであるRGARを紹介する。
論文 参考訳(メタデータ) (2025-02-19T01:50:10Z) - Improving Clinical Question Answering with Multi-Task Learning: A Joint Approach for Answer Extraction and Medical Categorization [2.380499804323775]
回答抽出と医療分類の両面でCQAモデルを共同で訓練するマルチタスク学習フレームワークを提案する。
回答の範囲の予測に加えて、我々のモデルは、診断、治療、症状、処置、実験報告の5つの標準化された医療カテゴリに分類する。
その結果、MTLは標準微調整に比べてF1スコアを2.2%改善し、解答分類の精度は90.7%向上した。
論文 参考訳(メタデータ) (2025-02-18T18:20:37Z) - Adaptive Knowledge Graphs Enhance Medical Question Answering: Bridging the Gap Between LLMs and Evolving Medical Knowledge [6.977177904883792]
AMG-RAGは、医療知識グラフの構築と継続的な更新を自動化する包括的なフレームワークである。
推論を統合し、PubMedやWikiSearchといった現在の外部証拠を検索する。
MEDQAのF1スコアは74.1%、MEDMCQAの精度は66.34パーセントで、同等のモデルと10倍から100倍のモデルの両方を上回っている。
論文 参考訳(メタデータ) (2025-02-18T16:29:45Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - MMed-RAG: Versatile Multimodal RAG System for Medical Vision Language Models [49.765466293296186]
近年,Med-LVLM (Med-LVLMs) の進歩により,対話型診断ツールの新たな可能性が高まっている。
Med-LVLMは、しばしば事実の幻覚に悩まされ、誤った診断につながることがある。
我々は,Med-LVLMの現実性を高めるために,多目的マルチモーダルRAGシステムMMed-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-16T23:03:27Z) - Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - FEDMEKI: A Benchmark for Scaling Medical Foundation Models via Federated Knowledge Injection [83.54960238236548]
FEDMEKIはデータのプライバシーを守るだけでなく、医療基盤モデルの能力を高める。
FEDMEKIは、医療ファンデーションモデルに対して、直接データを公開することなく、幅広い医療知識から学ぶことを可能にする。
論文 参考訳(メタデータ) (2024-08-17T15:18:56Z) - ScholarChemQA: Unveiling the Power of Language Models in Chemical Research Question Answering [54.80411755871931]
質問回答(QA)は、言語モデルの推論と知識の深さを効果的に評価する。
化学QAは、複雑な化学情報を理解しやすい形式に効果的に翻訳することで、教育と研究の両方において重要な役割を担っている。
このデータセットは、不均衡なデータ分散や、潜在的に有用である可能性のあるかなりの量の未ラベルデータを含む、典型的な現実世界の課題を反映している。
収集したデータを完全に活用して,化学的な問題に効果的に答えるQAMatchモデルを提案する。
論文 参考訳(メタデータ) (2024-07-24T01:46:55Z) - XAIQA: Explainer-Based Data Augmentation for Extractive Question
Answering [1.1867812760085572]
我々は,電子カルテで自然に利用可能なデータから,合成QAペアを大規模に生成するための新しいアプローチであるXAIQAを紹介する。
本手法は、分類モデル説明器の考え方を用いて、医療規範に対応する医療概念に関する質問や回答を生成する。
論文 参考訳(メタデータ) (2023-12-06T15:59:06Z) - Towards Medical Artificial General Intelligence via Knowledge-Enhanced
Multimodal Pretraining [121.89793208683625]
医療人工知能(MAGI)は、1つの基礎モデルで異なる医療課題を解くことができる。
我々は、Micical-knedge-enhanced mulTimOdal pretRaining (motoR)と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-26T01:26:19Z) - DIVERSE: bayesian Data IntegratiVE learning for precise drug ResponSE
prediction [27.531532648298768]
DIVERSEは、細胞株、薬物、遺伝子相互作用のデータから薬物応答を予測するフレームワークです。
ステップ的な方法でデータソースを体系的に統合し、各追加データセットの重要性を順番に検証する。
3つの最先端のアプローチを含む他の5つの方法を明らかに上回る。
論文 参考訳(メタデータ) (2021-03-31T12:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。