論文の概要: A Dynamic Self-Evolving Extraction System
- arxiv url: http://arxiv.org/abs/2603.06915v1
- Date: Fri, 06 Mar 2026 22:26:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.396079
- Title: A Dynamic Self-Evolving Extraction System
- Title(参考訳): 動的自己進化抽出システム
- Authors: Moin Amin-Naseri, Hannah Kim, Estevam Hruschka,
- Abstract要約: DySECTは動的自己進化抽出・キュレーションツールキットである。
LLMによって抽出された三重項で、自己拡張知識ベースを段階的にポップアップさせる。
KBは確率的知識とグラフに基づく推論の統合によってさらに豊かになる。
- 参考スコア(独自算出の注目度): 9.760407087070632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The extraction of structured information from raw text is a fundamental component of many NLP applications, including document retrieval, ranking, and relevance estimation. High-quality extractions often require domain-specific accuracy, up-to-date understanding of specialized taxonomies, and the ability to incorporate emerging jargon and rare outliers. In many domains--such as medical, legal, and HR--the extraction model must also adapt to shifting terminology and benefit from explicit reasoning over structured knowledge. We propose DySECT, a Dynamic Self-Evolving Extraction and Curation Toolkit, which continually improves as it is used. The system incrementally populates a versatile, self-expanding knowledge base (KB) with triples extracted by the LLM. The KB further enriches itself through the integration of probabilistic knowledge and graph-based reasoning, gradually accumulating domain concepts and relationships. The enriched KB then feeds back into the LLM extractor via prompt tuning, sampling of relevant few-shot examples, or fine-tuning using KB-derived synthetic data. As a result, the system forms a symbiotic closed-loop cycle in which extraction continuously improves knowledge, and knowledge continuously improves extraction.
- Abstract(参考訳): 原文からの構造化情報の抽出は、文書検索、ランキング、関連性推定を含む多くのNLPアプリケーションの基本コンポーネントである。
高品質な抽出には、しばしばドメイン固有の精度、専門分類学の最新の理解、出現するジャーゴンと稀なアウトリーチを組み込む能力が必要である。
医学、法学、人事などの多くの領域において、抽出モデルは用語のシフトに適応し、構造化された知識よりも明確な推論の恩恵を受ける必要がある。
動的自己進化抽出・キュレーションツールキットDySECTを提案する。
このシステムは、LLMによって抽出された3重の知識ベース(KB)を多目的で自己拡張的な知識ベース(KB)に漸進的に投入する。
KBはさらに、確率的知識とグラフに基づく推論を統合し、徐々にドメインの概念と関係を蓄積することで、自分自身を豊かにする。
強化されたKBは、即時チューニング、関連する少数ショットのサンプルのサンプリング、KB由来の合成データを用いた微調整を通じてLLM抽出器にフィードバックする。
その結果、システムは共生クローズドループサイクルを形成し、抽出は知識を継続的に改善し、知識は抽出を継続的に改善する。
関連論文リスト
- Multi-hop Reasoning via Early Knowledge Alignment [68.28168992785896]
アーリー・ナレッジ・アライメント(EKA)は、大規模言語モデルと文脈的に関連づけられた知識を整合させることを目的としている。
EKAは検索精度を大幅に改善し、カスケードエラーを低減し、性能と効率を向上する。
EKAは、大規模モデルにシームレスにスケールする、多目的でトレーニング不要な推論戦略として有効である。
論文 参考訳(メタデータ) (2025-12-23T08:14:44Z) - Context-Aware Scientific Knowledge Extraction on Linked Open Data using Large Language Models [0.0]
本稿では,クエリ固有の知識を抽出し,洗練し,ランク付けするシステムであるWISE(Workflow for Intelligent Scientific Knowledge extract)を紹介する。
WISEは、様々な情報源から知識を体系的に探求し、合成することによって、詳細な、組織化された回答を提供する。
論文 参考訳(メタデータ) (2025-06-21T04:22:34Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - Structured prompt interrogation and recursive extraction of semantics
(SPIRES): A method for populating knowledge bases using zero-shot learning [1.3963666696384924]
SPIRES(Structured Prompt Interrogation and Recursive extract of Semantics)を提案する。
SPIRESは、ゼロショット学習(ZSL)と、柔軟なプロンプトから応答する汎用語彙を実行し、情報を特定のスキーマに返却するLarge Language Models(LLM)の機能に依存している。
現在のSPIRES精度は、既存のリレーショナル抽出(RE)メソッドの中間範囲に匹敵するが、簡単にカスタマイズでき、柔軟性があり、重要なことに、トレーニングデータがない場合に新しいタスクを実行する能力がある。
論文 参考訳(メタデータ) (2023-04-05T19:07:04Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z) - Knowledge-aware Attention Network for Protein-Protein Interaction
Extraction [0.9949801888214528]
本稿では、タンパク質対とPPI抽出のためのコンテキスト情報に関する事前知識を融合させる知識認識型注意ネットワーク(KAN)を提案する。
BioCreative VI PPIデータセットの実験結果から,提案手法は複数の単語間の知識依存を連続的に獲得できることが示された。
論文 参考訳(メタデータ) (2020-01-07T15:02:28Z) - Chemical-induced Disease Relation Extraction with Dependency Information
and Prior Knowledge [2.9686294158279414]
本稿では,CDR抽出のための新しいコンボリューション・アテンション・ネットワーク(CAN)を提案する。
まず, 文中の化学物質と疾患のペア間の最短依存経路(SDP)を抽出する。
その後、KBから学習した知識表現に関連する各意味依存ベクトルの重要性と重みを学習するための注意機構が導入された。
論文 参考訳(メタデータ) (2020-01-02T02:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。