論文の概要: WEC: Deriving a Large-scale Cross-document Event Coreference dataset
from Wikipedia
- arxiv url: http://arxiv.org/abs/2104.05022v1
- Date: Sun, 11 Apr 2021 14:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 09:00:37.200685
- Title: WEC: Deriving a Large-scale Cross-document Event Coreference dataset
from Wikipedia
- Title(参考訳): wec: wikipediaによる大規模クロスドキュメントイベントコリファレンスデータセットの導出
- Authors: Alon Eirew, Arie Cattan, Ido Dagan
- Abstract要約: 本稿では,ウィキペディアからのクロスドキュメントイベントコアスのための大規模データセット収集のための効率的な手法であるウィキペディアイベントコアス(WEC)を提案する。
この手法を英語ウィキペディアに適用し,大規模wec-engデータセットを抽出する。
我々は,ドキュメント内コリファレンス解決のために最先端モデルのコンポーネントをクロスドキュメント設定に適応させるアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 14.324743524196874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-document event coreference resolution is a foundational task for NLP
applications involving multi-text processing. However, existing corpora for
this task are scarce and relatively small, while annotating only modest-size
clusters of documents belonging to the same topic. To complement these
resources and enhance future research, we present Wikipedia Event Coreference
(WEC), an efficient methodology for gathering a large-scale dataset for
cross-document event coreference from Wikipedia, where coreference links are
not restricted within predefined topics. We apply this methodology to the
English Wikipedia and extract our large-scale WEC-Eng dataset. Notably, our
dataset creation method is generic and can be applied with relatively little
effort to other Wikipedia languages. To set baseline results, we develop an
algorithm that adapts components of state-of-the-art models for within-document
coreference resolution to the cross-document setting. Our model is suitably
efficient and outperforms previously published state-of-the-art results for the
task.
- Abstract(参考訳): クロスドキュメントイベントコア参照解決は、マルチテキスト処理を含むNLPアプリケーションの基本課題である。
しかし、このタスクの既存のコーパスは少なく比較的小さく、同じトピックに属する文書の控えめなサイズのクラスタのみに注釈を付けている。
これらのリソースを補完し、今後の研究を強化するために、wikipediaからドキュメント横断イベントコリファレンスのための大規模データセットを収集するための効率的な方法論であるwikipedia event coreference(wec)を提案する。
この手法を英語ウィキペディアに適用し,大規模wec-engデータセットを抽出する。
特に、データセット作成メソッドは汎用的で、他のwikipedia言語に対して比較的少ない労力で適用できます。
ベースラインとなる結果を設定するために,文書内コリファレンス解像度に最先端モデルのコンポーネントを適用するアルゴリズムを開発した。
我々のモデルは最適に効率的であり、以前公表されたタスクの最先端結果よりも優れています。
関連論文リスト
- Enhancing Cross-Document Event Coreference Resolution by Discourse Structure and Semantic Information [33.21818213257603]
クロスドキュメントのイベントコア参照解決モデルは、参照の類似性を直接計算するか、イベント引数を抽出することで参照表現を強化することができる。
本稿では,文書の構造的・意味的情報をモデル化するために,文書レベルのレトリック構造理論(RST)木とクロスドキュメントのレキシカル・チェーンの構築を提案する。
このギャップを埋めるために、大規模な中国のクロスドキュメントイベントコアデータセットを開発した。
論文 参考訳(メタデータ) (2024-06-23T02:54:48Z) - REXEL: An End-to-end Model for Document-Level Relation Extraction and Entity Linking [11.374031643273941]
REXELは文書レベルcIE(DocIE)の共同作業のための高効率かつ高精度なモデルである
同様の環境では、競合する既存のアプローチよりも平均11倍高速です。
速度と精度の組み合わせにより、REXELはWebスケールで構造化された情報を抽出する正確なコスト効率のシステムとなる。
論文 参考訳(メタデータ) (2024-04-19T11:04:27Z) - On Task-personalized Multimodal Few-shot Learning for Visually-rich
Document Entity Retrieval [59.25292920967197]
VDER(Few-shot document entity search)は、NLPアプリケーションにおいて重要なトピックである。
FewVEXは、エンティティレベルの少数ショットVDERの分野における将来の研究を促進するための、新しいデータセットである。
本稿では,タスクパーソナライズを効果的に実現することを中心に,タスク認識型メタラーニングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-01T17:51:43Z) - DocumentNet: Bridging the Data Gap in Document Pre-Training [78.01647768018485]
本稿では,Webから大規模かつ弱いラベル付きデータを収集し,VDERモデルの学習に役立てる手法を提案する。
収集されたデータセットはDocumentNetと呼ばれ、特定のドキュメントタイプやエンティティセットに依存しない。
広く採用されているVDERタスクの実験は、DocumentNetを事前トレーニングに組み込んだ場合、大幅に改善されている。
論文 参考訳(メタデータ) (2023-06-15T08:21:15Z) - Peek Across: Improving Multi-Document Modeling via Cross-Document
Question-Answering [49.85790367128085]
我々は,事前学習対象に答える新しいクロスドキュメント質問から,汎用的なマルチドキュメントモデルを事前学習する。
この新規なマルチドキュメントQA定式化は、クロステキスト情報関係をよりよく回復させるようモデルに指示する。
分類タスクや要約タスクに焦点を当てた従来のマルチドキュメントモデルとは異なり、事前学習対象の定式化により、短いテキスト生成と長いテキスト生成の両方を含むタスクを実行できる。
論文 参考訳(メタデータ) (2023-05-24T17:48:40Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Cross-document Event Coreference Search: Task, Dataset and Modeling [26.36068336169796]
我々は、タスクのために、魅力的な、より適用可能な補完的な設定 - クロスドキュメントの参照検索を提案する。
このタスクの研究を支援するために、Wikipediaから派生した対応するデータセットを作成します。
本稿では,強力なコア参照スコアリング方式をDPRアーキテクチャに統合し,性能を向上する新しいモデルを提案する。
論文 参考訳(メタデータ) (2022-10-23T08:21:25Z) - Improving Candidate Retrieval with Entity Profile Generation for
Wikidata Entity Linking [76.00737707718795]
本稿では,エンティティ・プロファイリングに基づく新しい候補探索パラダイムを提案する。
我々は、このプロファイルを使用してインデックス付き検索エンジンに問い合わせ、候補エンティティを検索する。
本手法は,ウィキペディアのアンカーテキスト辞書を用いた従来の手法を補完するものである。
論文 参考訳(メタデータ) (2022-02-27T17:38:53Z) - Focus on what matters: Applying Discourse Coherence Theory to Cross
Document Coreference [22.497877069528087]
ドキュメント間でのイベントとエンティティのコア参照の解決は、候補参照の数を大幅に増加させ、完全な$n2$ペアワイズ比較を行うことを難しくする。
既存のアプローチでは、ドキュメントクラスタ内でのコア参照のみを考慮することで単純化されているが、クラスタ間のコア参照を処理できない。
我々は、談話コヒーレンス理論の洞察に基づいて、潜在的コア推論は、読者の談話焦点によって制約される。
本手法は,ECB+,ガン・バイオレンス,フットボール・コアス,クロスドメイン・クロスドキュメント・コアス・コーパスにおけるイベントとエンティティの両面での最先端の成果を達成する。
論文 参考訳(メタデータ) (2021-10-11T15:41:47Z) - A Large-Scale Multi-Document Summarization Dataset from the Wikipedia
Current Events Portal [10.553314461761968]
MDS(Multi-document summarization)は、大規模な文書コレクションの内容を短い要約に圧縮することを目的としている。
この研究は、文書クラスタの総数と個々のクラスタのサイズの両方で大きいMDS用の新しいデータセットを示す。
論文 参考訳(メタデータ) (2020-05-20T14:33:33Z) - SciREX: A Challenge Dataset for Document-Level Information Extraction [56.83748634747753]
ドキュメントレベルで大規模な情報抽出データセットを作成するのは難しい。
複数のIEタスクを含む文書レベルのIEデータセットであるSciREXを紹介する。
我々は、従来の最先端のIEモデルをドキュメントレベルのIEに拡張する強力なベースラインとして、ニューラルモデルを開発する。
論文 参考訳(メタデータ) (2020-05-01T17:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。