論文の概要: ReLiK: Retrieve and LinK, Fast and Accurate Entity Linking and Relation Extraction on an Academic Budget
- arxiv url: http://arxiv.org/abs/2408.00103v1
- Date: Wed, 31 Jul 2024 18:25:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 22:36:04.173989
- Title: ReLiK: Retrieve and LinK, Fast and Accurate Entity Linking and Relation Extraction on an Academic Budget
- Title(参考訳): ReLiK: Retrieve and LinK, Fast and accurate Entity Linking and Relation extract on a Academic Budget
- Authors: Riccardo Orlando, Pere-Lluis Huguet-Cabot, Edoardo Barba, Roberto Navigli,
- Abstract要約: エンティティリンク(EL)と関係抽出(RE)のためのRetriever-Readerアーキテクチャを提案する。
我々は、テキストと並んで候補となるエンティティや関係を組み込んだ革新的な入力表現を提唱した。
ELとREの定式化は、ドメイン内ベンチマークとドメイン外ベンチマークの両方で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 43.35593460866504
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Entity Linking (EL) and Relation Extraction (RE) are fundamental tasks in Natural Language Processing, serving as critical components in a wide range of applications. In this paper, we propose ReLiK, a Retriever-Reader architecture for both EL and RE, where, given an input text, the Retriever module undertakes the identification of candidate entities or relations that could potentially appear within the text. Subsequently, the Reader module is tasked to discern the pertinent retrieved entities or relations and establish their alignment with the corresponding textual spans. Notably, we put forward an innovative input representation that incorporates the candidate entities or relations alongside the text, making it possible to link entities or extract relations in a single forward pass and to fully leverage pre-trained language models contextualization capabilities, in contrast with previous Retriever-Reader-based methods, which require a forward pass for each candidate. Our formulation of EL and RE achieves state-of-the-art performance in both in-domain and out-of-domain benchmarks while using academic budget training and with up to 40x inference speed compared to competitors. Finally, we show how our architecture can be used seamlessly for Information Extraction (cIE), i.e. EL + RE, and setting a new state of the art by employing a shared Reader that simultaneously extracts entities and relations.
- Abstract(参考訳): エンティティリンク(EL)と関係抽出(RE)は自然言語処理の基本的なタスクであり、幅広いアプリケーションにおいて重要なコンポーネントとして機能します。
本稿では,ELとREの両方を対象としたRetriever-ReaderアーキテクチャであるReLiKを提案する。
その後、Readerモジュールは、関連する検索されたエンティティやリレーションを識別し、対応するテキストスパンとのアライメントを確立する。
特に,テキストに付随する候補エンティティや関係を組み込んだ革新的な入力表現を提案し,各候補に対してフォワードパスを必要とする従来のRetriever-Readerベースの手法とは対照的に,エンティティをリンクしたり,単一のフォワードパスで関係を抽出したり,事前学習された言語モデルの文脈化機能を完全に活用することを可能にする。
ELとREの定式化は,学術予算のトレーニングと,競合他社と比較して最大40倍の推論速度で,ドメイン内ベンチマークとドメイン外ベンチマークの両方で最先端のパフォーマンスを実現する。
最後に、情報抽出(cIE)やEL + RE(EL + RE)、エンティティとリレーションを同時に抽出する共有リーダ(Shared Reader)を用いることで、新しい最先端技術の設定に、私たちのアーキテクチャをどのようにシームレスに利用することができるかを示す。
関連論文リスト
- LLM-Ref: Enhancing Reference Handling in Technical Writing with Large Language Models [4.1180254968265055]
LLM-Refは、研究者が複数のソース文書から記事を書くのを補助する記述支援ツールである。
チャンキングとインデックスを使用する従来のRAGシステムとは異なり、私たちのツールはテキスト段落から直接コンテンツを検索し、生成します。
我々の手法は、RAGシステムの正確で関連性があり、文脈的に適切な応答を生成する能力の全体像を提供する総合的な指標である、Ragasスコアの3.25タイムから6.26タイムの上昇を達成する。
論文 参考訳(メタデータ) (2024-11-01T01:11:58Z) - Knowledge-Aware Query Expansion with Large Language Models for Textual and Relational Retrieval [49.42043077545341]
知識グラフ(KG)から構造化文書関係を付加したLLMを拡張した知識対応クエリ拡張フレームワークを提案する。
文書テキストをリッチなKGノード表現として活用し、KAR(Knowledge-Aware Retrieval)のための文書ベースの関係フィルタリングを利用する。
論文 参考訳(メタデータ) (2024-10-17T17:03:23Z) - Document-Level In-Context Few-Shot Relation Extraction via Pre-Trained Language Models [29.94694305204144]
本稿では,文書レベルのインコンテクスト・イン・ショット関係抽出のための新しいフレームワークを提案する。
ドキュメントレベルの関係抽出用データセットとして最大であるDocREDを用いて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-17T09:10:27Z) - AKEM: Aligning Knowledge Base to Queries with Ensemble Model for Entity
Recognition and Linking [15.548722102706867]
本稿では,NLPCC 2015におけるエンティティ認識とリンク問題に対する新しいアプローチを提案する。
このタスクでは、短い検索クエリから名前付きエンティティの参照を抽出し、中国の知識ベース内のエンティティにリンクする。
本手法は計算効率が高く,F1スコアは0.535である。
論文 参考訳(メタデータ) (2023-09-12T12:37:37Z) - Bidirectional End-to-End Learning of Retriever-Reader Paradigm for Entity Linking [57.44361768117688]
RetrieverとReaderのための双方向エンドツーエンドトレーニングフレームワークであるBEER$2$を提案する。
設計した双方向のエンドツーエンドトレーニングを通じて、BEER$2$は、レトリバーとリーダーをガイドし、互いに学び、一緒に前進し、最終的にELパフォーマンスを改善する。
論文 参考訳(メタデータ) (2023-06-21T13:04:30Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - ReSel: N-ary Relation Extraction from Scientific Text and Tables by
Learning to Retrieve and Select [53.071352033539526]
学術論文からN-ary関係を抽出する問題について考察する。
提案手法であるReSelは,このタスクを2段階のプロシージャに分解する。
3つの科学的情報抽出データセットに対する実験により、ReSelは最先端のベースラインを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-10-26T02:28:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。