論文の概要: RELATE: Relation Extraction in Biomedical Abstracts with LLMs and Ontology Constraints
- arxiv url: http://arxiv.org/abs/2509.19057v1
- Date: Tue, 23 Sep 2025 14:21:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.886806
- Title: RELATE: Relation Extraction in Biomedical Abstracts with LLMs and Ontology Constraints
- Title(参考訳): RELATE: LLMとオントロジー制約によるバイオメディカル抽象化の関連抽出
- Authors: Olawumi Olasunkanmi, Mathew Satursky, Hong Yi, Chris Bizon, Harlin Lee, Stanley Ahalt,
- Abstract要約: 我々は,LLM抽出された関係を標準化されたKGにマッピングする3段階パイプラインであるRELATEを紹介する。
パイプラインには、(1)埋め込みによる前処理、(2)SapBERTで強化された類似性ベースの検索、(3)明示的な否定処理を備えた再ランクが含まれる。
ChemProtベンチマークでは、RELATEは52%の正確な一致と94%の精度@10を2,400 HEAL Projectの抽象化で達成している。
- 参考スコア(独自算出の注目度): 2.844531679990474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biomedical knowledge graphs (KGs) are vital for drug discovery and clinical decision support but remain incomplete. Large language models (LLMs) excel at extracting biomedical relations, yet their outputs lack standardization and alignment with ontologies, limiting KG integration. We introduce RELATE, a three-stage pipeline that maps LLM-extracted relations to standardized ontology predicates using ChemProt and the Biolink Model. The pipeline includes: (1) ontology preprocessing with predicate embeddings, (2) similarity-based retrieval enhanced with SapBERT, and (3) LLM-based reranking with explicit negation handling. This approach transforms relation extraction from free-text outputs to structured, ontology-constrained representations. On the ChemProt benchmark, RELATE achieves 52% exact match and 94% accuracy@10, and in 2,400 HEAL Project abstracts, it effectively rejects irrelevant associations (0.4%) and identifies negated assertions. RELATE captures nuanced biomedical relationships while ensuring quality for KG augmentation. By combining vector search with contextual LLM reasoning, RELATE provides a scalable, semantically accurate framework for converting unstructured biomedical literature into standardized KGs.
- Abstract(参考訳): 医学知識グラフ(KGs)は、薬物発見と臨床決定支援に不可欠であるが、いまだに不完全である。
大規模言語モデル(LLM)は、生物医学的関係の抽出に優れるが、その出力は標準化やオントロジーとの整合性に欠け、KG統合を制限している。
本稿では,LLM抽出した関係をChemProtとBiolink Modelを用いて標準化オントロジー述語にマッピングする3段階パイプラインであるRELATEを紹介する。
パイプラインは、(1)述語埋め込みによるオントロジー前処理、(2)SapBERTで強化された類似性ベースの検索、(3)明示的な否定処理を伴うLCMベースのリグレードを含む。
このアプローチは、自由テキスト出力から関係抽出を構造化オントロジー制約付き表現に変換する。
ChemProtのベンチマークでは、RELATEは52%の正確な一致と94%の精度@10を達成し、2,400のHEALプロジェクトの抽象化では、無関係な関連(0.4%)を効果的に拒否し、否定的なアサーションを識別する。
RELATEは、KG増強のための品質を確保しながら、生医学上の不規則な関係を捉えている。
ベクトル探索と文脈的LLM推論を組み合わせることで、RELATEは、非構造化バイオメディカル文献を標準化されたKGに変換するためのスケーラブルで意味論的に正確なフレームワークを提供する。
関連論文リスト
- MedKGent: A Large Language Model Agent Framework for Constructing Temporally Evolving Medical Knowledge Graph [57.54231831309079]
我々は、時間的に進化する医療知識グラフを構築するためのフレームワークであるMedKGentを紹介する。
生医学的知識の出現を, 微粒な日々の時系列でシミュレートする。
結果として得られるKGは156,275個のエンティティと2,971,384個のリレーショナルトリプルを含む。
論文 参考訳(メタデータ) (2025-08-17T15:14:03Z) - HySemRAG: A Hybrid Semantic Retrieval-Augmented Generation Framework for Automated Literature Synthesis and Methodological Gap Analysis [55.2480439325792]
HySemRAGは、Extract, Transform, Load (ETL)パイプラインとRetrieval-Augmented Generation (RAG)を組み合わせたフレームワークである。
システムは、マルチ層アプローチを通じて既存のRAGアーキテクチャの制限に対処する。
論文 参考訳(メタデータ) (2025-08-01T20:30:42Z) - Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - Zero-shot Causal Graph Extrapolation from Text via LLMs [50.596179963913045]
我々は,自然言語から因果関係を推定する大規模言語モデル (LLM) の能力を評価する。
LLMは、(特別な)トレーニングサンプルを必要とせずにペア関係のベンチマークで競合性能を示す。
我々は、反復的なペアワイズクエリを通して因果グラフを外挿するアプローチを拡張した。
論文 参考訳(メタデータ) (2023-12-22T13:14:38Z) - High-throughput Biomedical Relation Extraction for Semi-Structured Web Articles Empowered by Large Language Models [1.9665865095034865]
関係抽出タスクを大言語モデルのバイナリ分類として定式化する。
メインタイトルをテールエンティティとして指定し、コンテキストに明示的に組み込む。
長い内容はテキストチャンクにスライスされ、埋め込みされ、追加の埋め込みモデルで検索される。
論文 参考訳(メタデータ) (2023-12-13T16:43:41Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Large Language Models, scientific knowledge and factuality: A framework to streamline human expert evaluation [0.0]
本研究は,生物医学的背景知識と対話するための大規模言語モデルの可能性を探るものである。
フレームワークには3つの評価ステップが含まれており、それぞれが流布、即応的なアライメント、セマンティック・コヒーレンス、事実的知識、生成した応答の特異性という3つの側面を逐次評価する。
この研究は、ChatGPT、GPT-4、Llama 2を含む11の最先端のLLMを2つのプロンプトベースタスクで持つ能力に関する体系的な評価を提供する。
論文 参考訳(メタデータ) (2023-05-28T22:46:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。