論文の概要: Retrieval-Augmented Generation-based Relation Extraction
- arxiv url: http://arxiv.org/abs/2404.13397v1
- Date: Sat, 20 Apr 2024 14:42:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 19:10:11.636235
- Title: Retrieval-Augmented Generation-based Relation Extraction
- Title(参考訳): 検索・拡張生成に基づく関係抽出
- Authors: Sefika Efeoglu, Adrian Paschke,
- Abstract要約: Retrieved-Augmented Generation-based Relation extract (RAG4RE) を提案する。
本研究は,Large Language Models (LLM) を用いたRAG4RE手法の有効性を評価する。
我々のRAG4REアプローチが従来のREアプローチよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Information Extraction (IE) is a transformative process that converts unstructured text data into a structured format by employing entity and relation extraction (RE) methodologies. The identification of the relation between a pair of entities plays a crucial role within this framework. Despite the existence of various techniques for relation extraction, their efficacy heavily relies on access to labeled data and substantial computational resources. In addressing these challenges, Large Language Models (LLMs) emerge as promising solutions; however, they might return hallucinating responses due to their own training data. To overcome these limitations, Retrieved-Augmented Generation-based Relation Extraction (RAG4RE) in this work is proposed, offering a pathway to enhance the performance of relation extraction tasks. This work evaluated the effectiveness of our RAG4RE approach utilizing different LLMs. Through the utilization of established benchmarks, such as TACRED, TACREV, Re-TACRED, and SemEval RE datasets, our aim is to comprehensively evaluate the efficacy of our RAG4RE approach. In particularly, we leverage prominent LLMs including Flan T5, Llama2, and Mistral in our investigation. The results of our study demonstrate that our RAG4RE approach surpasses performance of traditional RE approaches based solely on LLMs, particularly evident in the TACRED dataset and its variations. Furthermore, our approach exhibits remarkable performance compared to previous RE methodologies across both TACRED and TACREV datasets, underscoring its efficacy and potential for advancing RE tasks in natural language processing.
- Abstract(参考訳): 情報抽出(IE)は、エンティティと関係抽出(RE)手法を用いて、構造化されていないテキストデータを構造化形式に変換する変換プロセスである。
一対のエンティティ間の関係を識別することは、このフレームワークにおいて重要な役割を果たす。
関係抽出のための様々な技術が存在するにもかかわらず、その有効性はラベル付きデータやかなりの計算資源へのアクセスに大きく依存している。
これらの課題に対処する際には、LLM(Large Language Models)が有望なソリューションとして登場します。
これらの制約を克服するために,本研究におけるRAG4RE(Retrieved-Augmented Generation-based Relation extract)を提案する。
本研究は,異なるLLMを用いたRAG4RE手法の有効性を評価した。
TACRED, TACREV, Re-TACRED, SemEval RE データセットなどの確立したベンチマークを活用することで, RAG4RE アプローチの有効性を総合的に評価することを目的とする。
特に、Flan T5、Llama2、Mistralなどの著名なLLMを活用している。
我々のRAG4REアプローチは,LSMのみに基づく従来のREアプローチよりも優れており,特にTACREDデータセットとその変動は顕著である。
さらに,本手法は,TACREDとTACREVの両方のデータセットにまたがる従来のRE手法と比較して,顕著な性能を示し,自然言語処理におけるREタスクの有効性と可能性を強調した。
関連論文リスト
- Graphical Reasoning: LLM-based Semi-Open Relation Extraction [3.2586315449885106]
GPT-3.5でテキスト内学習を活用すれば,抽出プロセスが大幅に向上することを示す。
本稿では,関係抽出を逐次的なサブタスクに分解する新しい図式推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T21:41:53Z) - LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named
Entity Recognition [67.96794382040547]
$LLM-DA$は、数発のNERタスクのために、大きな言語モデル(LLM)に基づいた、新しいデータ拡張テクニックである。
提案手法では,14のコンテキスト書き換え戦略を採用し,同一タイプのエンティティ置換を設計し,ロバスト性を高めるためにノイズ注入を導入する。
論文 参考訳(メタデータ) (2024-02-22T14:19:56Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - A Study on the Implementation of Generative AI Services Using an
Enterprise Data-Based LLM Application Architecture [0.0]
本研究では,Large Language Models (LLM) アプリケーションアーキテクチャを用いて生成AIサービスを実装する手法を提案する。
この研究は、不十分なデータの問題を軽減するための戦略を練り上げ、カスタマイズされたソリューションを提供している。
この研究の重要な貢献は、検索型拡張世代(RAG)モデルの開発である。
論文 参考訳(メタデータ) (2023-09-03T07:03:17Z) - Continual Contrastive Finetuning Improves Low-Resource Relation
Extraction [34.76128090845668]
関係抽出は低リソースのシナリオやドメインでは特に困難である。
近年の文献は自己教師型学習によって低リソースREに取り組みつつある。
コントラスト学習の一貫した目的を用いたREモデルの事前学習と微調整を提案する。
論文 参考訳(メタデータ) (2022-12-21T07:30:22Z) - Summarization as Indirect Supervision for Relation Extraction [23.98136192661566]
本稿では,関係抽出(RE)を要約式に変換するSuREを提案する。
我々は,要約タスクとREタスクの定式化を本質的に橋渡しする文・関係変換手法を開発した。
3つのデータセットの実験では、フルデータセットと低リソースの両方でSuREの有効性が示されている。
論文 参考訳(メタデータ) (2022-05-19T20:25:29Z) - Automatically Generating Counterfactuals for Relation Exaction [18.740447044960796]
関係抽出(RE)は自然言語処理の基本課題である。
現在のディープニューラルモデルは高い精度を達成しているが、スプリアス相関の影響を受けやすい。
我々は、エンティティの文脈的反事実を導出するための新しいアプローチを開発する。
論文 参考訳(メタデータ) (2022-02-22T04:46:10Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - D-REX: Dialogue Relation Extraction with Explanations [65.3862263565638]
この研究は、部分的にラベル付けされたデータのみを使用しながら関係が存在することを示す説明を抽出することに焦点を当てている。
本稿では,政策誘導型半教師付きアルゴリズムD-REXを提案する。
約90%の人は、強いBERTに基づく関節関係抽出と説明モデルよりもD-REXの説明を好んでいる。
論文 参考訳(メタデータ) (2021-09-10T22:30:48Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。