論文の概要: Context-Aware Scientific Knowledge Extraction on Linked Open Data using Large Language Models
- arxiv url: http://arxiv.org/abs/2506.17580v1
- Date: Sat, 21 Jun 2025 04:22:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.484735
- Title: Context-Aware Scientific Knowledge Extraction on Linked Open Data using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたリンクされたオープンデータの文脈認識科学的知識抽出
- Authors: Sajratul Y. Rubaiat, Hasan M. Jamil,
- Abstract要約: 本稿では,クエリ固有の知識を抽出し,洗練し,ランク付けするシステムであるWISE(Workflow for Intelligent Scientific Knowledge extract)を紹介する。
WISEは、様々な情報源から知識を体系的に探求し、合成することによって、詳細な、組織化された回答を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The exponential growth of scientific literature challenges researchers extracting and synthesizing knowledge. Traditional search engines return many sources without direct, detailed answers, while general-purpose LLMs may offer concise responses that lack depth or omit current information. LLMs with search capabilities are also limited by context window, yielding short, incomplete answers. This paper introduces WISE (Workflow for Intelligent Scientific Knowledge Extraction), a system addressing these limits by using a structured workflow to extract, refine, and rank query-specific knowledge. WISE uses an LLM-powered, tree-based architecture to refine data, focusing on query-aligned, context-aware, and non-redundant information. Dynamic scoring and ranking prioritize unique contributions from each source, and adaptive stopping criteria minimize processing overhead. WISE delivers detailed, organized answers by systematically exploring and synthesizing knowledge from diverse sources. Experiments on HBB gene-associated diseases demonstrate WISE reduces processed text by over 80% while achieving significantly higher recall over baselines like search engines and other LLM-based approaches. ROUGE and BLEU metrics reveal WISE's output is more unique than other systems, and a novel level-based metric shows it provides more in-depth information. We also explore how the WISE workflow can be adapted for diverse domains like drug discovery, material science, and social science, enabling efficient knowledge extraction and synthesis from unstructured scientific papers and web sources.
- Abstract(参考訳): 科学文献の指数的な成長は、研究者が知識の抽出と合成に挑戦する。
従来の検索エンジンは直接的かつ詳細な答えを示さずに多くのソースを返すが、汎用LLMは、深さや電流情報を省略しない簡潔な応答を提供する。
検索機能を持つLLMは、文脈ウィンドウによって制限され、短い不完全な回答をもたらす。
本稿では、構造化されたワークフローを用いて、クエリ固有の知識を抽出し、洗練し、ランク付けすることで、これらの制限に対処するWISE(Workflow for Intelligent Scientific Knowledge extract)を紹介する。
WISEはLLMベースのツリーベースのアーキテクチャを使用してデータを洗練し、クエリ整合性、コンテキスト認識、非冗長情報に重点を置いている。
動的スコアリングとランク付けは、各ソースからのユニークなコントリビューションを優先し、適応的な停止基準は、処理オーバーヘッドを最小限にします。
WISEは、様々な情報源から知識を体系的に探求し、合成することによって、詳細な、組織化された回答を提供する。
HBB遺伝子関連疾患の実験では、WISEは処理されたテキストを80%以上削減し、検索エンジンや他のLCMベースのアプローチのようなベースラインに対するリコールを著しく高めている。
ROUGEとBLEUのメトリクスは、WISEの出力は他のシステムよりもユニークであり、新しいレベルベースのメトリクスは、より詳細な情報を提供することを示している。
また、WISEワークフローを薬物発見、物質科学、社会科学といった多様な分野に適用し、構造化されていない科学論文やWebソースから効率的な知識抽出と合成を可能にする方法について検討する。
関連論文リスト
- The Extractive-Abstractive Spectrum: Uncovering Verifiability Trade-offs in LLM Generations [40.498553309980764]
情報共有ツールの妥当性と実用性の間の相互作用について検討する。
ユーザは,大規模言語モデルよりも検索エンジンの方が高いクエリを好んでいることがわかった。
論文 参考訳(メタデータ) (2024-11-26T12:34:52Z) - Leveraging Large Language Models for Semantic Query Processing in a Scholarly Knowledge Graph [1.7418328181959968]
本研究は,革新的なセマンティッククエリ処理システムを開発することを目的としている。
オーストラリア国立大学のコンピュータサイエンス(CS)研究者による研究成果に関する総合的な情報を得ることができる。
論文 参考訳(メタデータ) (2024-05-24T09:19:45Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Information Extraction in Low-Resource Scenarios: Survey and Perspective [56.5556523013924]
情報抽出は構造化されていないテキストから構造化された情報を導き出そうとする。
本稿では,emphLLMおよびemphLLMに基づく低リソースIEに対するニューラルアプローチについて概説する。
論文 参考訳(メタデータ) (2022-02-16T13:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。