論文の概要: Incremental Neural Coreference Resolution in Constant Memory
- arxiv url: http://arxiv.org/abs/2005.00128v2
- Date: Wed, 7 Oct 2020 19:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 04:49:57.969305
- Title: Incremental Neural Coreference Resolution in Constant Memory
- Title(参考訳): 定記憶におけるインクリメンタル・ニューラル・コリファレンス分解能
- Authors: Patrick Xia, Jo\~ao Sedoc, Benjamin Van Durme
- Abstract要約: 新しい文が与えられた後、私たちのエンドツーエンドは、以前のドキュメントコンテキストから生成された明示的なエンティティ表現に対して、それぞれの参照を提案、スコアします。
これらのスパンは、忘れられる前にエンティティの表現を更新するために使用される。
- 参考スコア(独自算出の注目度): 32.74928040453735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate modeling coreference resolution under a fixed memory
constraint by extending an incremental clustering algorithm to utilize
contextualized encoders and neural components. Given a new sentence, our
end-to-end algorithm proposes and scores each mention span against explicit
entity representations created from the earlier document context (if any).
These spans are then used to update the entity's representations before being
forgotten; we only retain a fixed set of salient entities throughout the
document. In this work, we successfully convert a high-performing model (Joshi
et al., 2020), asymptotically reducing its memory usage to constant space with
only a 0.3% relative loss in F1 on OntoNotes 5.0.
- Abstract(参考訳): 本研究では,拡張クラスタリングアルゴリズムを拡張した固定メモリ制約下でのコリファレンス分解能のモデル化について検討する。
新しい文が与えられた後、私たちのエンドツーエンドのアルゴリズムは、以前の文書コンテキスト(もしあれば)から生成された明示的なエンティティ表現に対して、それぞれの言及を提案、スコアする。
これらのスパンは、忘れられる前にエンティティの表現を更新するために使用されます。
本研究では,OntoNotes 5.0 上の F1 の相対損失が 0.3% しかなく,メモリ使用量を一定空間に漸近的に減少させるハイパフォーマンスモデル (Joshi et al., 2020) を成功させた。
関連論文リスト
- Sentence-Incremental Neural Coreference Resolution [32.13574453443377]
本稿では,シフト・リデュース法で参照境界をマークした後,段階的にクラスタを構築できる文増分ニューラルコア参照解決システムを提案する。
本システムは,(1)文書長の2次複雑さを高い計算コストで引き起こす最先端の非インクリメンタルモデル,(2)段階的に動作するが代名詞を超えて一般化しないメモリネットワークベースモデルである。
論文 参考訳(メタデータ) (2023-05-26T14:00:25Z) - LaMemo: Language Modeling with Look-Ahead Memory [50.6248714811912]
右側トークンへの漸進的参加により再帰記憶を向上させるLook-Ahead Memory(LaMemo)を提案する。
LaMemoは、メモリ長に比例した追加のオーバーヘッドで、双方向の注意とセグメントの再発を受け入れる。
広く使われている言語モデリングベンチマークの実験は、異なる種類のメモリを備えたベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-04-15T06:11:25Z) - Incremental Learning of Structured Memory via Closed-Loop Transcription [20.255633973040183]
本研究は、インクリメンタルな設定で複数のオブジェクトクラスの構造化記憶を学習するための最小限の計算モデルを提案する。
本手法は,従来のインクリメンタルラーニング手法よりもシンプルで,モデルサイズ,ストレージ,計算の面でより効率的である。
実験結果から,本手法は破滅的忘れを効果的に軽減し,生成的リプレイよりも高い性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-02-11T02:20:43Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z) - Rethinking Space-Time Networks with Improved Memory Coverage for
Efficient Video Object Segmentation [68.45737688496654]
各オブジェクトのマスク特徴を再エンコードすることなく,フレーム間の直接対応性を確立する。
対応によって、現在のクエリフレーム内の全てのノードは、過去の特徴を連想的に集約することによって推測される。
すべてのメモリノードにコントリビュートする機会があることを検証し、そのような多彩な投票がメモリ効率と推論精度の両方に有益であることを示した。
論文 参考訳(メタデータ) (2021-06-09T16:50:57Z) - CNN with large memory layers [2.368995563245609]
この作業は、最近提案された製品キーメモリ構造であるcitelarge_Memoryを中心に、多くのコンピュータビジョンアプリケーションに実装されている。
メモリ構造は、ほぼすべてのニューラルネットワークアーキテクチャに拡張されるのに適した単純な計算プリミティブと見なすことができる。
論文 参考訳(メタデータ) (2021-01-27T20:58:20Z) - Learning to Ignore: Long Document Coreference with Bounded Memory Neural
Networks [65.3963282551994]
我々は、すべてのエンティティをメモリに保持することは不要であると主張し、同時に少数のエンティティだけを追跡するメモリ拡張ニューラルネットワークを提案する。
a)OntoNotesとLitBankの高メモリ・計算要求モデルと競合する傾向にあり,(b)ルールベースの戦略よりも容易に効率の良いメモリ管理戦略を学習できることを示す。
論文 参考訳(メタデータ) (2020-10-06T15:16:31Z) - Autoregressive Entity Retrieval [55.38027440347138]
エンティティは、知識の表現と集約の方法の中心にあります。
クエリが与えられたエンティティを検索できることは、エンティティリンクやオープンドメインの質問応答のような知識集約的なタスクに基本となる。
本稿では,自己回帰方式でトークン・バイ・トークンを左から右に生成し,エンティティを検索する最初のシステムであるGENREを提案する。
論文 参考訳(メタデータ) (2020-10-02T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。