論文の概要: Efficient Seq2seq Coreference Resolution Using Entity Representations
- arxiv url: http://arxiv.org/abs/2510.14504v1
- Date: Thu, 16 Oct 2025 09:50:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.804337
- Title: Efficient Seq2seq Coreference Resolution Using Entity Representations
- Title(参考訳): エンティティ表現を用いた効率の良いSeq2seq一致解決法
- Authors: Matt Grenander, Shay B. Cohen, Mark Steedman,
- Abstract要約: シーク2セックリゾルバでトークンの広い部分を捨てることは、インクリメンタルコア参照解決のための実現可能な戦略であることを示す。
以上の結果から,Seq2seqリゾルバにおけるトークンの広い部分の破棄は,インクリメンタルコア参照解決のための実現可能な戦略であることが示唆された。
- 参考スコア(独自算出の注目度): 28.577787866461758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Seq2seq coreference models have introduced a new paradigm for coreference resolution by learning to generate text corresponding to coreference labels, without requiring task-specific parameters. While these models achieve new state-of-the-art performance, they do so at the cost of flexibility and efficiency. In particular, they do not efficiently handle incremental settings such as dialogue, where text must processed sequentially. We propose a compressed representation in order to improve the efficiency of these methods in incremental settings. Our method works by extracting and re-organizing entity-level tokens, and discarding the majority of other input tokens. On OntoNotes, our best model achieves just 0.6 CoNLL F1 points below a full-prefix, incremental baseline while achieving a compression ratio of 1.8. On LitBank, where singleton mentions are annotated, it passes state-of-the-art performance. Our results indicate that discarding a wide portion of tokens in seq2seq resolvers is a feasible strategy for incremental coreference resolution.
- Abstract(参考訳): Seq2seqコア参照モデルは、タスク固有のパラメータを必要とせず、コア参照ラベルに対応するテキストを生成することを学ぶことで、コア参照解決のための新しいパラダイムを導入した。
これらのモデルは、新しい最先端のパフォーマンスを実現する一方で、柔軟性と効率性の犠牲で実現している。
特に、テキストを逐次処理しなければならない対話のようなインクリメンタルな設定を効率的に処理しない。
逐次的設定において,これらの手法の効率を向上させるために圧縮表現を提案する。
提案手法は,エンティティレベルのトークンを抽出,再編成し,他の入力トークンの大部分を破棄することで機能する。
OntoNotesでは、圧縮比1.8を達成しながら、完全なプリフィックス、インクリメンタルベースラインよりわずか0.6CoNLL F1ポイントしか達成していません。
LitBankでは、シングルトンがアノテートされ、最先端のパフォーマンスをパスする。
以上の結果から,Seq2seqリゾルバにおけるトークンの広い部分の破棄は,インクリメンタルコア参照解決のための実現可能な戦略であることが示唆された。
関連論文リスト
- Broken Tokens? Your Language Model can Secretly Handle Non-Canonical Tokenizations [83.93566096400723]
ランダムにサンプリングされたトークン化が与えられた場合、命令調整されたモデルは元の性能の最大93.4%を維持している。
文字レベルのセグメンテーションは文字列操作とコード理解タスクを最大+14%改善する。
右列桁のグルーピングは、大数の算術を+33%向上させる。
論文 参考訳(メタデータ) (2025-06-23T18:02:26Z) - Training-Free Tokenizer Transplantation via Orthogonal Matching Pursuit [45.18582668677648]
大規模言語モデルにおいて,トークン化剤を移植するためのトレーニング不要な手法を提案する。
それぞれの語彙外トークンを,共有トークンの疎線形結合として近似する。
我々は,OMPがベースモデルの性能を最良にゼロショット保存できることを示す。
論文 参考訳(メタデータ) (2025-06-07T00:51:27Z) - Achieving Tokenizer Flexibility in Language Models through Heuristic Adaptation and Supertoken Learning [0.0]
事前訓練された言語モデル(LLM)は固定トークン化方式によって制約されることが多い。
Tokenadaptは、モデルに依存しないトークン化剤の移植方法である。
本フレームワークでは, モデルに依存しないトークン化剤の移植法であるTokenadaptと, マルチワードスーパートークンの新規プリトークン化の2つの革新を紹介した。
論文 参考訳(メタデータ) (2025-05-14T19:00:27Z) - Object Recognition as Next Token Prediction [99.40793702627396]
オブジェクト認識を次のトークン予測として提案する。
その考え方は、画像埋め込みからフォームラベルへのテキストトークンの自動回帰予測を行う言語デコーダを適用することである。
論文 参考訳(メタデータ) (2023-12-04T18:58:40Z) - Seq2seq is All You Need for Coreference Resolution [26.551602768015986]
トレーニング済みのseq2seq変換器を微調整し、コア参照アノテーションを符号化したタグ付きシーケンスに入力文書をマッピングする。
我々のモデルは、データセットの配列に関する文献の中で最高のコア参照システムより優れているか、あるいは密に一致します。
論文 参考訳(メタデータ) (2023-10-20T19:17:22Z) - AWTE-BERT:Attending to Wordpiece Tokenization Explicitly on BERT for
Joint Intent Classification and SlotFilling [5.684659127683238]
BERT (Bidirectional Representations from Transformers) は2つのタスクを共同で最適化する。
本稿では,ワードピーストークン化後の複数のサブトークン特徴を明示的にモデル化したBERTに基づく新しいジョイントモデルを提案する。
実験により,本モデルが意図分類精度,スロットフィリングF1,文レベルの意味的フレーム精度を大幅に向上することを確認した。
論文 参考訳(メタデータ) (2022-11-27T13:49:19Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Active Learning for Coreference Resolution using Discrete Annotation [76.36423696634584]
我々は、コア参照解決におけるアクティブラーニングのためのペアワイズアノテーションを改善した。
提案された参照ペアがコアフェレントでないと判断された場合、アノテータに参照アンテセントを識別するよう依頼する。
既存のベンチマークコアベンチマークデータセットを用いた実験では、この追加質問からの信号が人間のアノテーション時間当たりの大幅なパフォーマンス向上につながることが示された。
論文 参考訳(メタデータ) (2020-04-28T17:17:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。