論文の概要: On Generalization in Coreference Resolution
- arxiv url: http://arxiv.org/abs/2109.09667v1
- Date: Mon, 20 Sep 2021 16:33:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 19:57:12.918326
- Title: On Generalization in Coreference Resolution
- Title(参考訳): 共参照分解における一般化について
- Authors: Shubham Toshniwal, Patrick Xia, Sam Wiseman, Karen Livescu, Kevin
Gimpel
- Abstract要約: モデルの市販性能を評価するため、異なるドメインを対象とした8つのコア参照解決データセットを統合する。
次に、それらのドメイン、アノテーションガイドライン、メタデータが異なるにもかかわらず、トレーニングのために3つのデータセットを混ぜて、単一のモデルを共同でトレーニングする方法を提案する。
ゼロショット環境では、単一のデータセット転送でトレーニングされたモデルが不十分であるのに対して、共同トレーニングの成果によって全体的なパフォーマンスが改善されていることが分かりました。
- 参考スコア(独自算出の注目度): 66.05112218880907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While coreference resolution is defined independently of dataset domain, most
models for performing coreference resolution do not transfer well to unseen
domains. We consolidate a set of 8 coreference resolution datasets targeting
different domains to evaluate the off-the-shelf performance of models. We then
mix three datasets for training; even though their domain, annotation
guidelines, and metadata differ, we propose a method for jointly training a
single model on this heterogeneous data mixture by using data augmentation to
account for annotation differences and sampling to balance the data quantities.
We find that in a zero-shot setting, models trained on a single dataset
transfer poorly while joint training yields improved overall performance,
leading to better generalization in coreference resolution models. This work
contributes a new benchmark for robust coreference resolution and multiple new
state-of-the-art results.
- Abstract(参考訳): coreference resolutionはデータセットドメインとは独立に定義されているが、coreference resolutionを実行するほとんどのモデルは、見当たらないドメインにうまく転送されない。
モデルの市販性能を評価するために,異なるドメインを対象とした8つのコア参照解決データセットを統合する。
次に, 3つのデータセットを訓練用に混合し, それらのドメイン, アノテーションガイドライン, メタデータが異なるにもかかわらず, アノテーションの差異を考慮し, サンプリングしてデータ量のバランスをとることで, この不均質なデータ混合上で単一モデルを協調的にトレーニングする方法を提案する。
ゼロショット設定では、単一のデータセット転送でトレーニングされたモデルが貧弱であり、ジョイントトレーニングによって全体的なパフォーマンスが向上し、コリファレンス解像度モデルの一般化が向上することが分かりました。
この研究は、堅牢なコア参照解決のための新しいベンチマークと、新しい最先端の結果に寄与する。
関連論文リスト
- Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training [92.52892510093037]
我々は、Universal Semi-supervised Model Adaptation (USMA)と呼ばれる現実的で挑戦的なドメイン適応問題を導入する。
本稿では,2つのモデル間の予測整合性を規則化する協調的整合性トレーニングフレームワークを提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-07T08:19:40Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - An Empirical Study on Multi-Domain Robust Semantic Segmentation [42.79166534691889]
我々は、いくつかの人気セグメンテーションデータセットに基づいて、ドメイン間でうまく機能することが期待される統一モデルをトレーニングする。
RVC 2022セマンティックセマンティックセグメンテーションタスクでは,データセットは第1モデルの1/3に過ぎなかった。
論文 参考訳(メタデータ) (2022-12-08T12:04:01Z) - Cross-Domain Ensemble Distillation for Domain Generalization [17.575016642108253]
クロスドメイン・アンサンブル蒸留(XDED)という,シンプルで効果的な領域一般化法を提案する。
本手法は,同じラベルを持つトレーニングデータから,異なるドメインから出力ロジットのアンサンブルを生成し,そのアンサンブルとのミスマッチに対して各出力をペナルティ化する。
本手法で学習したモデルは, 敵攻撃や画像の破損に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-11-25T12:32:36Z) - Heterogeneous Target Speech Separation [52.05046029743995]
我々は,非相互排他的概念を用いて興味のあるソースを区別できる単一チャネルターゲットソース分離のための新しいパラダイムを提案する。
提案する異種分離フレームワークは,分散シフトが大きいデータセットをシームレスに利用することができる。
論文 参考訳(メタデータ) (2022-04-07T17:14:20Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - Moving on from OntoNotes: Coreference Resolution Model Transfer [47.5441257300917]
対象データセットで利用可能な注釈付き文書の数に基づいて,コリファレンス解決モデルの転送可能性を定量化する。
LitBankとPreCoの最新の結果を含む、いくつかのデータセットにまたがる新しいベンチマークを確立します。
論文 参考訳(メタデータ) (2021-04-17T05:35:07Z) - Adaptive Active Learning for Coreference Resolution [37.261220564076964]
最近のインクリメンタルコア推論解決の進展により、この設定におけるアクティブラーニングに対する新しいアプローチが可能になる。
コアファレンスのためのデータバリアを下げることで、コアファレンスリゾルバは、以前に考慮されていない一連のドメインに迅速に適応できます。
論文 参考訳(メタデータ) (2021-04-15T17:21:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。