論文の概要: Word-Level Coreference Resolution
- arxiv url: http://arxiv.org/abs/2109.04127v1
- Date: Thu, 9 Sep 2021 09:26:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:18:53.778231
- Title: Word-Level Coreference Resolution
- Title(参考訳): 単語レベル参照分解能
- Authors: Vladimir Dobrovolskii
- Abstract要約: 最近のコア参照解決モデルは、単語スパン間のコア参照リンクを見つけるために、スパン表現に大きく依存している。
そこで本稿では,単語スパンよりも個々の単語間のコア参照リンクを考察し,単語スパンを再構築する。
これにより、コア参照モデルの複雑さを$O(n2)$に減らし、すべての潜在的な参照を、それらを取り除くことなく検討することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent coreference resolution models rely heavily on span representations to
find coreference links between word spans. As the number of spans is $O(n^2)$
in the length of text and the number of potential links is $O(n^4)$, various
pruning techniques are necessary to make this approach computationally
feasible. We propose instead to consider coreference links between individual
words rather than word spans and then reconstruct the word spans. This reduces
the complexity of the coreference model to $O(n^2)$ and allows it to consider
all potential mentions without pruning any of them out. We also demonstrate
that, with these changes, SpanBERT for coreference resolution will be
significantly outperformed by RoBERTa. While being highly efficient, our model
performs competitively with recent coreference resolution systems on the
OntoNotes benchmark.
- Abstract(参考訳): 最近のコリファレンス解決モデルは、単語スパン間のコリファレンスリンクを見つけるためにスパン表現に大きく依存している。
スパンの数はテキストの長さで$o(n^2)$であり、潜在的なリンク数は$o(n^4)$であるので、このアプローチを計算可能にするためには様々なプルーニング技術が必要である。
そこで我々は,単語スパンよりも個々の単語間のコア参照リンクを考察し,単語スパンを再構築する。
これにより、コリファレンスモデルの複雑さが$o(n^2)$に減少し、すべての潜在的な言及を、どれも取り除かずに考慮できる。
また、これらの変更により、コア参照解決のためのSpanBERTはRoBERTaによって大幅に性能が向上することを示した。
OntoNotesベンチマークでは,高効率ながら,最近のコア参照解決システムと競合する性能を示した。
関連論文リスト
- Span-Aggregatable, Contextualized Word Embeddings for Effective Phrase Mining [0.22499166814992438]
目的語句が雑音の多い文脈内に存在する場合, 単語の完全文を1つの高次ベクトルで表すだけでは, 効果的な句検索には不十分であることを示す。
本稿では,この手法がフレーズマイニングに有用であるが,有用なスパン表現を得るためには,かなりの計算が必要であることを示す。
論文 参考訳(メタデータ) (2024-05-12T12:08:05Z) - Copy Is All You Need [66.00852205068327]
既存のテキストコレクションからテキストセグメントを段階的にコピーするテキスト生成を定式化する。
提案手法は, 自動評価と人的評価の両方により, より優れた生成品質を実現する。
当社のアプローチでは,より大規模なテキストコレクションにスケールアップすることで,さらなるパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-07-13T05:03:26Z) - STAGE: Span Tagging and Greedy Inference Scheme for Aspect Sentiment
Triplet Extraction [17.192861356588597]
Aspect Sentiment Triplet extract (ASTE) は感情分析研究において新たな課題となっている。
Span TAgging and Greedy infErence (STAGE) を提案する。
論文 参考訳(メタデータ) (2022-11-28T02:07:03Z) - Query Expansion Using Contextual Clue Sampling with Language Models [69.51976926838232]
本稿では,実効的なフィルタリング戦略と検索した文書の融合の組み合わせを,各文脈の生成確率に基づいて提案する。
我々の語彙マッチングに基づくアプローチは、よく確立された高密度検索モデルDPRと比較して、同様のトップ5/トップ20検索精度と上位100検索精度を実現する。
エンド・ツー・エンドのQAでは、読者モデルも我々の手法の恩恵を受けており、いくつかの競争基準に対してエクサクト・マッチのスコアが最も高い。
論文 参考訳(メタデータ) (2022-10-13T15:18:04Z) - An Embarrassingly Easy but Strong Baseline for Nested Named Entity
Recognition [55.080101447586635]
スコア行列の空間関係をモデル化するために,コナールニューラルネットワーク(CNN)を提案する。
提案手法は, 事前学習したエンコーダと同一の手法である。
論文 参考訳(メタデータ) (2022-08-09T04:33:46Z) - Always Keep your Target in Mind: Studying Semantics and Improving
Performance of Neural Lexical Substitution [124.99894592871385]
本稿では,従来の言語モデルと最近の言語モデルの両方を用いた語彙置換手法の大規模比較研究を行う。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによるすでに競合する結果がさらに大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-07T16:16:19Z) - A Structured Span Selector [100.0808682810258]
本稿では,新しい文法に基づく構造化スパン選択モデルを提案する。
我々は、コア参照解決とセマンティックロールラベリングという2つの一般的なスパン予測タスクでモデルを評価した。
論文 参考訳(メタデータ) (2022-05-08T23:58:40Z) - Propose-and-Refine: A Two-Stage Set Prediction Network for Nested Named
Entity Recognition [13.010064498077863]
ネストしたNERのための2段階セット予測ネットワークであるPropose-and-Refine Network(PnRNet)を提案する。
提案段階では,大まかなエンティティ予測をエンティティ提案として生成するために,スパンベースの予測器を用いる。
洗練された段階では、提案は相互に相互作用し、よりリッチな文脈情報を提案表現に組み込む。
PnRNetは4つのネストされたNERデータセットと1つのフラットなNERデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-04-27T06:58:45Z) - Are Eliminated Spans Useless for Coreference Resolution? Not at all [26.92897088026001]
本稿では,表現強化のためのポインタネットワークを用いて,参照と高度に関連付けられたスパンをうまく活用する参照表現精錬戦略を提案する。
文書レベルのCoNLL-2012 Shared Task Englishデータセットの実験結果によると、スパンの除去は確かに非常に効果的である。
論文 参考訳(メタデータ) (2021-01-04T02:02:49Z) - Multiplex Word Embeddings for Selectional Preference Acquisition [70.33531759861111]
単語間の様々な関係に応じて容易に拡張できる多重単語埋め込みモデルを提案する。
本モデルでは,不必要なスパース性を導入することなく,関係の異なる単語を効果的に識別することができる。
論文 参考訳(メタデータ) (2020-01-09T04:47:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。