論文の概要: Data Overdose? Time for a Quadruple Shot: Knowledge Graph Construction using Enhanced Triple Extraction
- arxiv url: http://arxiv.org/abs/2508.03438v1
- Date: Tue, 05 Aug 2025 13:30:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.982434
- Title: Data Overdose? Time for a Quadruple Shot: Knowledge Graph Construction using Enhanced Triple Extraction
- Title(参考訳): データ過剰? 四重ショットの時間:強化三重抽出を用いた知識グラフ構築
- Authors: Taine J. Elliott, Stephen P. Levitt, Ken Nixon, Martin Bekker,
- Abstract要約: 公開医療データの急速な拡大は、臨床医や研究者にとっても課題となっている。
本稿では,バイオメディカル知識を識別・接続するための情報抽出と知識グラフの自動生成手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid expansion of publicly-available medical data presents a challenge for clinicians and researchers alike, increasing the gap between the volume of scientific literature and its applications. The steady growth of studies and findings overwhelms medical professionals at large, hindering their ability to systematically review and understand the latest knowledge. This paper presents an approach to information extraction and automatic knowledge graph (KG) generation to identify and connect biomedical knowledge. Through a pipeline of large language model (LLM) agents, the system decomposes 44 PubMed abstracts into semantically meaningful proposition sentences and extracts KG triples from these sentences. The triples are enhanced using a combination of open domain and ontology-based information extraction methodologies to incorporate ontological categories. On top of this, a context variable is included during extraction to allow the triple to stand on its own - thereby becoming `quadruples'. The extraction accuracy of the LLM is validated by comparing natural language sentences generated from the enhanced triples to the original propositions, achieving an average cosine similarity of 0.874. The similarity for generated sentences of enhanced triples were compared with generated sentences of ordinary triples showing an increase as a result of the context variable. Furthermore, this research explores the ability for LLMs to infer new relationships and connect clusters in the knowledge base of the knowledge graph. This approach leads the way to provide medical practitioners with a centralised, updated in real-time, and sustainable knowledge source, and may be the foundation of similar gains in a wide variety of fields.
- Abstract(参考訳): 公開医療データの急速な拡大は、臨床医や研究者にとっても課題となり、科学文献の量と応用のギャップを増すことになる。
研究と発見の着実な成長は医療専門家を圧倒し、最新の知識を体系的にレビューし理解することを妨げる。
本稿では,バイオメディカル知識を識別・接続するための情報抽出と自動知識グラフ(KG)生成へのアプローチを提案する。
大規模言語モデル(LLM)エージェントのパイプラインを通じて、44のPubMed抽象文を意味的に意味のある命題文に分解し、これらの文からKGトリプルを抽出する。
三重項は、オープンドメインとオントロジーに基づく情報抽出手法を組み合わせて拡張され、オントロジーカテゴリが組み込まれる。
これに加えて、抽出中にコンテキスト変数が含まれて、トリプルが自身の上に立つことを可能にします。
LLMの抽出精度は、拡張三重項から生成された自然言語文と原命題を比較し、平均コサイン類似度0.874を達成して検証する。
拡張三重項の生成文の類似性を,文脈変数の結果として増加傾向を示す通常の三重項の生成文と比較した。
さらに,LLMが新たな関係を推論し,知識グラフの知識ベース内のクラスタを接続する能力についても検討した。
このアプローチは、医療従事者にリアルタイムに、そして持続可能な知識ソースを集中的に提供し、様々な分野における同様の利益の基盤となる可能性がある。
関連論文リスト
- Knowledge Graph-Driven Retrieval-Augmented Generation: Integrating Deepseek-R1 with Weaviate for Advanced Chatbot Applications [45.935798913942904]
構造化バイオメディカル知識と大規模言語モデル(LLM)を組み合わせた革新的なフレームワークを提案する。
本システムでは,年齢関連黄斑変性(AMD)に関する医学的要約から因果関係を同定・精査し,詳細な知識グラフを作成する。
ベクトルベース検索と局所展開言語モデルを用いて,臨床証拠を直接参照して,文脈的に関連性があり,検証可能な応答を生成する。
論文 参考訳(メタデータ) (2025-02-16T12:52:28Z) - Surgical Triplet Recognition via Diffusion Model [59.50938852117371]
外科的三重項認識は、次世代のコンテキスト対応手術室を実現するために必要不可欠なビルディングブロックである。
拡散モデルを用いた外科的三重項認識のための新しい生成フレームワークであるDifftを提案する。
CholecT45とColecT50データセットの実験は、手術用三重項認識のための新しい最先端性能を達成する上で、提案手法の優位性を示している。
論文 参考訳(メタデータ) (2024-06-19T04:43:41Z) - Graph-Based Retriever Captures the Long Tail of Biomedical Knowledge [2.2814097119704058]
大規模言語モデル(LLM)は、膨大な知識を要約して提示することで、情報の検索方法を変えつつある。
LLMはトレーニングセットから最も頻繁に見られる情報を強調し、まれな情報を無視する傾向があります。
本稿では,これらのクラスタをダウンサンプリングし,情報過負荷問題を緩和するために知識グラフを活用する新しい情報検索手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T18:31:11Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - High-throughput Biomedical Relation Extraction for Semi-Structured Web Articles Empowered by Large Language Models [1.9665865095034865]
関係抽出タスクを大言語モデルのバイナリ分類として定式化する。
メインタイトルをテールエンティティとして指定し、コンテキストに明示的に組み込む。
長い内容はテキストチャンクにスライスされ、埋め込みされ、追加の埋め込みモデルで検索される。
論文 参考訳(メタデータ) (2023-12-13T16:43:41Z) - Benchingmaking Large Langage Models in Biomedical Triple Extraction [13.022101126299269]
本研究は主に文レベルのバイオメディカルトリプル抽出に焦点を当てている。
高品質なバイオメディカルトリプル抽出データセットが存在しないことは、堅牢なトリプル抽出システムの開発の進歩を妨げている。
GITは、専門家によるバイオメディカルトリプル抽出データセットである。
論文 参考訳(メタデータ) (2023-10-27T20:15:23Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Drug Synergistic Combinations Predictions via Large-Scale Pre-Training
and Graph Structure Learning [82.93806087715507]
薬物併用療法は、より有効で安全性の低い疾患治療のための確立された戦略である。
ディープラーニングモデルは、シナジスティックな組み合わせを発見する効率的な方法として登場した。
我々のフレームワークは、他のディープラーニングベースの手法と比較して最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-01-14T15:07:43Z) - Mining On Alzheimer's Diseases Related Knowledge Graph to Identity
Potential AD-related Semantic Triples for Drug Repurposing [13.751910502580415]
我々は、アルツハイマー病(AD)と化学物質、薬物、栄養補助薬との関係を研究するための知識グラフを構築した。
本稿では,このグラフマイニングモデルを用いて,ADと他のエンティティ間の信頼性の高い新しい関係を予測できることを示す。
論文 参考訳(メタデータ) (2022-02-17T15:33:27Z) - SumGNN: Multi-typed Drug Interaction Prediction via Efficient Knowledge
Graph Summarization [64.56399911605286]
本稿では,サブグラフ抽出モジュールによって実現された知識要約グラフニューラルネットワークSumGNNを提案する。
SumGNNは5.54%まで最高のベースラインを上回り、データ関係の低いタイプでは特にパフォーマンスの向上が顕著である。
論文 参考訳(メタデータ) (2020-10-04T00:14:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。