論文の概要: Coreference Resolution through a seq2seq Transition-Based System
- arxiv url: http://arxiv.org/abs/2211.12142v1
- Date: Tue, 22 Nov 2022 10:17:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 16:31:47.237310
- Title: Coreference Resolution through a seq2seq Transition-Based System
- Title(参考訳): seq2seqトランジションベースシステムによる参照分解能
- Authors: Bernd Bohnet, Chris Alberti, Michael Collins
- Abstract要約: 本稿では,テキスト・テキスト・パラダイムを用いて参照とリンクを共同で予測するコア参照解決システムを提案する。
83.3F1スコアのCoNLL-2012データセットに対して、最先端の精度を得る。
従来のアプローチに比べて、4言語中3言語でゼロショットのF1スコアが大幅に高くなる。
- 参考スコア(独自算出の注目度): 10.187353923159613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most recent coreference resolution systems use search algorithms over
possible spans to identify mentions and resolve coreference. We instead present
a coreference resolution system that uses a text-to-text (seq2seq) paradigm to
predict mentions and links jointly. We implement the coreference system as a
transition system and use multilingual T5 as an underlying language model. We
obtain state-of-the-art accuracy on the CoNLL-2012 datasets with 83.3 F1-score
for English (a 2.3 higher F1-score than previous work (Dobrovolskii, 2021))
using only CoNLL data for training, 68.5 F1-score for Arabic (+4.1 higher than
previous work) and 74.3 F1-score for Chinese (+5.3). In addition we use the
SemEval-2010 data sets for experiments in the zero-shot setting, a few-shot
setting, and supervised setting using all available training data. We get
substantially higher zero-shot F1-scores for 3 out of 4 languages than previous
approaches and significantly exceed previous supervised state-of-the-art
results for all five tested languages.
- Abstract(参考訳): 最近のコリファレンスレゾリューションシステムのほとんどは、参照を識別し、コリファレンスを解決するために可能なスパン以上の検索アルゴリズムを使用している。
代わりに,テキスト・ツー・テキスト(seq2seq)パラダイムを用いて言及とリンクを共同で予測するコリファレンスレゾリューションシステムを提案する。
トランジッションシステムとしてコリファレンスシステムを実装し,基礎となる言語モデルとして多言語t5を使用する。
英語用83.3F1スコア(Dobrovolskii,2021年)とアラビア語用68.5F1スコア(+4.1高)と中国語用74.3F1スコア(+5.3)を用いて,CoNLL-2012データセットの最先端精度を得る。
さらに,ゼロショット設定,数ショット設定,すべてのトレーニングデータを用いた教師付き設定実験にsemeval-2010データセットを使用する。
従来の4言語中3言語に対するゼロショットF1スコアは,従来の5つのテスト言語に対する教師付き最新結果をはるかに上回っている。
関連論文リスト
- DeMuX: Data-efficient Multilingual Learning [57.37123046817781]
DEMUXは、大量の重複しない多言語データからラベルを付けるための正確なデータポイントを規定するフレームワークである。
エンドツーエンドのフレームワークは言語に依存しず、モデル表現を記述し、多言語的ターゲット設定をサポートしています。
論文 参考訳(メタデータ) (2023-11-10T20:09:08Z) - An Open Dataset and Model for Language Identification [84.15194457400253]
マクロ平均F1スコア0.93、偽陽性率0.033を201言語で達成するLIDモデルを提案する。
モデルとデータセットの両方を研究コミュニティに公開しています。
論文 参考訳(メタデータ) (2023-05-23T08:43:42Z) - GMNLP at SemEval-2023 Task 12: Sentiment Analysis with Phylogeny-Based
Adapters [35.36372251094268]
本報告では,SemEval-2023共有タスクAfriSenti-SemEvalに対するGMUの感情分析システムについて述べる。
AfroXLMR-largeはアフリカ語で訓練された訓練済み多言語言語モデルである。
本システムでは,5:Amharicで最高のF1スコアを達成し,F1スコアを6.2ポイント上回っている。
論文 参考訳(メタデータ) (2023-04-25T16:39:51Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - T5Score: Discriminative Fine-tuning of Generative Evaluation Metrics [94.69907794006826]
我々は、現在利用可能なデータから、教師なし信号と教師なし信号の両方を用いて、両方の世界のベストを結合するフレームワークを提案する。
このアイデアを,mT5をバックボーンとするトレーニング信号を使用するメトリックであるT5Scoreをトレーニングすることで,運用する。
T5Scoreは、セグメントレベルの既存のトップスコアメトリクスに対して、すべてのデータセットで最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-12T06:29:04Z) - AmericasNLI: Evaluating Zero-shot Natural Language Understanding of
Pretrained Multilingual Models in Truly Low-resource Languages [75.08199398141744]
我々は、XNLI(Conneau et al)の拡張である AmericasNLI を提示する。
は、アメリカ大陸の10の原住民の言語である。
XLM-Rで実験を行い、複数のゼロショットおよび翻訳ベースのアプローチをテストします。
XLM-Rのゼロショット性能は全10言語で低調であり、平均性能は38.62%である。
論文 参考訳(メタデータ) (2021-04-18T05:32:28Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - Phonemer at WNUT-2020 Task 2: Sequence Classification Using COVID
Twitter BERT and Bagging Ensemble Technique based on Plurality Voting [0.0]
新型コロナウイルス(COVID-19)に関連する英語のつぶやきを自動的に識別するシステムを開発した。
最終アプローチでは0.9037のF1スコアを達成し,F1スコアを評価基準として総合6位にランク付けした。
論文 参考訳(メタデータ) (2020-10-01T10:54:54Z) - NAYEL at SemEval-2020 Task 12: TF/IDF-Based Approach for Automatic
Offensive Language Detection in Arabic Tweets [0.0]
提案システムは,アラビア語のつぶやきにおける攻撃的言語を自動的に識別することを目的としている。
機械学習に基づくアプローチがシステムの設計に使われてきた。
最上位のシステムと最終ランクのシステムは、それぞれテストセットで90.17%と44.51%のf1スコアを報告した。
論文 参考訳(メタデータ) (2020-07-27T07:44:00Z) - Tha3aroon at NSURL-2019 Task 8: Semantic Question Similarity in Arabic [5.214494546503266]
NSURL 2019のセマンティックテキスト質問類似性タスクに対するチームの取り組みについて述べる。
我々のトップパフォーマンスシステムは、トレーニングデータを拡大するために、いくつかの革新的なデータ拡張技術を利用している。
データの事前学習されたコンテキスト埋め込みをELMoが受け取り、自己注意型のON-LSTMネットワークにフィードする。
論文 参考訳(メタデータ) (2019-12-28T20:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。