論文の概要: An LLM + ASP Workflow for Joint Entity-Relation Extraction
- arxiv url: http://arxiv.org/abs/2508.12611v1
- Date: Mon, 18 Aug 2025 04:15:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.967299
- Title: An LLM + ASP Workflow for Joint Entity-Relation Extraction
- Title(参考訳): 共同エンティティ関係抽出のためのLLM+ASPワークフロー
- Authors: Trang Tran, Trung Hoang Le, Huiping Cao, Tran Cao Son,
- Abstract要約: JERE(Joint entity-relation extract)は、エンティティとそれらの関係を同時に識別する。
このタスクを実行するには、従来の機械学習ベースのアプローチでは、注釈付きデータの大規模なコーパスが必要となる。
本稿では,ジェネレーティブ事前学習型大規模言語モデル(LLM)の能力と,JEREを実行するためのAnswer Set Programming(ASP)の知識表現と推論能力を活用することを提案する。
- 参考スコア(独自算出の注目度): 6.961349351448254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Joint entity-relation extraction (JERE) identifies both entities and their relationships simultaneously. Traditional machine-learning based approaches to performing this task require a large corpus of annotated data and lack the ability to easily incorporate domain specific information in the construction of the model. Therefore, creating a model for JERE is often labor intensive, time consuming, and elaboration intolerant. In this paper, we propose harnessing the capabilities of generative pretrained large language models (LLMs) and the knowledge representation and reasoning capabilities of Answer Set Programming (ASP) to perform JERE. We present a generic workflow for JERE using LLMs and ASP. The workflow is generic in the sense that it can be applied for JERE in any domain. It takes advantage of LLM's capability in natural language understanding in that it works directly with unannotated text. It exploits the elaboration tolerant feature of ASP in that no modification of its core program is required when additional domain specific knowledge, in the form of type specifications, is found and needs to be used. We demonstrate the usefulness of the proposed workflow through experiments with limited training data on three well-known benchmarks for JERE. The results of our experiments show that the LLM + ASP workflow is better than state-of-the-art JERE systems in several categories with only 10\% of training data. It is able to achieve a 2.5 times (35\% over 15\%) improvement in the Relation Extraction task for the SciERC corpus, one of the most difficult benchmarks.
- Abstract(参考訳): JERE(Joint entity-relation extract)は、エンティティとそれらの関係を同時に識別する。
このタスクを実行するための従来の機械学習ベースのアプローチでは、注釈付きデータの大規模なコーパスが必要であり、モデルの構築にドメイン固有の情報を簡単に組み込む能力が欠如している。
したがって、JEREのモデルを作成することは、しばしば労働集約的で、時間を消費し、不寛容である。
本稿では,ジェネレーション事前学習型大規模言語モデル(LLM)の能力と,JEREを実行するためのAnswer Set Programming(ASP)の知識表現と推論能力を活用することを提案する。
LLM と ASP.NET を使用した JERE の汎用ワークフローを提案する。
ワークフローは、任意のドメインでJEREに適用できるという意味で汎用的です。
自然言語理解におけるLLMの機能を活用し、注釈なしのテキストで直接動作する。
ASP.NETは、追加のドメイン固有の知識が型仕様の形で発見され、使用される必要がある場合に、コアプログラムの変更が不要である、という、ASPの耐開発機能を活用している。
JEREの3つのよく知られたベンチマークで、限られたトレーニングデータを用いた実験により、提案したワークフローの有用性を実証する。
実験の結果,LLM+ASPワークフローは,トレーニングデータの10%しか持たないいくつかのカテゴリにおいて,最先端のJEREシステムよりも優れていることがわかった。
最も難しいベンチマークの一つであるSciERCコーパスのリレーショナル抽出タスクにおいて、2.5倍 (35\% over 15\%) の改善が達成されている。
関連論文リスト
- Beyond Isolated Dots: Benchmarking Structured Table Construction as Deep Knowledge Extraction [28.47810405584841]
Arranged and Organized extract Benchmarkは、断片化された文書を理解するための大規模言語モデルの能力を評価するために設計された。
AOEには3つの異なるドメインにまたがる11のタスクが含まれており、さまざまな入力クエリに適したコンテキスト固有のスキーマを生成するモデルが必要である。
結果は、最も先進的なモデルでさえ、かなり苦労したことを示している。
論文 参考訳(メタデータ) (2025-07-22T06:37:51Z) - Leveraging LLMs for Utility-Focused Annotation: Reducing Manual Effort for Retrieval and RAG [69.51637252264277]
本研究では,Large Language Models (LLMs) が,検索モデルのトレーニングにおいて,人間のアノテーションを効果的に置き換えられるかどうかを検討する。
提案実験により,実用性を重視したアノテーションを訓練したレトリバーは,ドメイン外設定でトレーニングしたアノテーションを有意に上回った。
20%の人間アノテーションでトレーニングされたデータだけで、ユーティリティ中心のアノテーションでトレーニングされたレトリバーが、完全に人間のアノテーションでトレーニングされたモデルのパフォーマンスにマッチする。
論文 参考訳(メタデータ) (2025-04-07T16:05:52Z) - New Dataset and Methods for Fine-Grained Compositional Referring Expression Comprehension via Specialist-MLLM Collaboration [49.180693704510006]
Referring Expression (REC) は、言語理解、画像理解、言語と画像の接点の相互作用を評価するためのクロスモーダルなタスクである。
MLLM(Multimodal Large Language Models)の試験場として機能する。
論文 参考訳(メタデータ) (2025-02-27T13:58:44Z) - RUIE: Retrieval-based Unified Information Extraction using Large Language Model [6.788855739199981]
統一された情報抽出は、構造化されていないテキストから構造化された情報を抽出することを目的としている。
本稿では,タスクの効率的な一般化にコンテキスト内学習を活用するフレームワークRUIE(Retrieval-based Unified Information extract)を提案する。
論文 参考訳(メタデータ) (2024-09-18T03:20:04Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - Learning to Reduce: Optimal Representations of Structured Data in
Prompting Large Language Models [42.16047343029512]
大規模言語モデル(LLM)は汎用AIエージェントとして広く利用されている。
本稿では,入力コンテキストの縮小バージョンを生成するために,言語モデルを微調整するフレームワークであるLearning to Reduceを提案する。
入力コンテキストから関連する証拠を選択する際に,本モデルが同等の精度を達成することを示す。
論文 参考訳(メタデータ) (2024-02-22T00:41:23Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - SEED: Domain-Specific Data Curation With Large Language Models [22.54280367957015]
LLM-as-compilerアプローチであるSEEDは,Large Language Models(LLM)を介して,ドメイン固有のデータキュレーションソリューションを自動的に生成する。
SEEDは、4つのLCMアシストモジュールから自動的に選択し、そのタスクに最も適したハイブリッド実行パイプラインを形成する。
論文 参考訳(メタデータ) (2023-10-01T17:59:20Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。