論文の概要: Mention Annotations Alone Enable Efficient Domain Adaptation for
Coreference Resolution
- arxiv url: http://arxiv.org/abs/2210.07602v1
- Date: Fri, 14 Oct 2022 07:57:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 16:35:07.892654
- Title: Mention Annotations Alone Enable Efficient Domain Adaptation for
Coreference Resolution
- Title(参考訳): 参照解決のための効率的なドメイン適応を可能にするメンションアノテーション
- Authors: Nupoor Gandhi, Anjalie Field, Emma Strubell
- Abstract要約: コア参照モデルのドメイン適応を成功させるためには,適応参照検出が重要な要素であることを示す。
その結果,アノテートは平均F1の7~14%改善し,アノテートコアを同等の時間で比較した。
- 参考スコア(独自算出の注目度): 8.08448832546021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although, recent advances in neural network models for coreference resolution
have led to substantial improvements on benchmark datasets, it remains a
challenge to successfully transfer those models to new target domains
containing many out-of-vocabulary spans and requiring differing annotation
schemes. Typical approaches for domain adaptation involve continued training on
coreference annotations in the target domain, but obtaining those annotations
is costly and time-consuming. In this work, we show that adapting mention
detection is the key component to successful domain adaptation of coreference
models, rather than antecedent linking. Through timed annotation experiments,
we also show annotating mentions alone is nearly twice as fast as annotating
full coreference chains. Based on these insights, we propose a method for
effectively adapting coreference models that requires only mention annotations
in the target domain. We use an auxiliary mention detection objective trained
with mention examples in the target domain resulting in higher mention
precision. We demonstrate that our approach facilitates sample- and
time-efficient transfer to new annotation schemes and lexicons in extensive
evaluation across three English coreference datasets: CoNLL-2012
(news/conversation), i2b2/VA (medical case notes), and a dataset of child
welfare case notes. We show that annotating mentions results in 7-14%
improvement in average F1 over annotating coreference over an equivalent amount
of time.
- Abstract(参考訳): 共参照解決のためのニューラルネットワークモデルの最近の進歩は、ベンチマークデータセットの大幅な改善につながったが、これらのモデルを多くのボキャブラリスパンを含む新しいターゲットドメインにうまく移行し、異なるアノテーションスキームを必要とすることは依然として課題である。
ドメイン適応の典型的なアプローチは、ターゲットドメインにおけるコア参照アノテーションの継続的なトレーニングを含むが、それらのアノテーションを取得するのはコストと時間を要する。
本研究では,参照検出の適応が,先行的なリンクではなく,コリファレンスモデルのドメイン適応を成功させる上で重要な要素であることを示す。
時間的アノテーション実験を通じて、注釈だけでは完全なコア参照チェーンのアノテートよりも約2倍高速であることを示す。
これらの知見に基づき、ターゲットドメインのアノテーションのみを参照するコリファレンスモデルを効果的に適用する手法を提案する。
対象領域の参照例で訓練された補助的参照検出目的を用いて,高い参照精度を実現する。
提案手法は,conll-2012 (news/conversation), i2b2/va (medical case notes), a dataset of child welfare case notesの3つの英語コリファレンスデータセットにおいて,新しいアノテーションスキームや辞書へのサンプルおよびタイム効率の高い転送を促進する。
その結果,同量の時間に対してコリファレンスをアノテートするよりも,平均f1が7~14%向上した。
関連論文リスト
- Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - Holistic Transfer: Towards Non-Disruptive Fine-Tuning with Partial
Target Data [32.91362206231936]
本稿では,事前学習したソースモデルを対象領域に適応させ,ソースデータに現れるすべてのクラスを分類する学習問題を提案する。
対象のエンドユーザが適応前にすべてのクラスのデータを集めるのは現実的ではないため,この問題は現実的だ。
欠落したクラスの精度を保ち、全体的な性能を向上する有効なソリューションをいくつか提示する。
論文 参考訳(メタデータ) (2023-11-02T17:35:16Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - AcroFOD: An Adaptive Method for Cross-domain Few-shot Object Detection [59.10314662986463]
クロスドメインの少数ショットオブジェクト検出は、いくつかの注釈付きターゲットデータで対象ドメイン内のオブジェクト検出器を適応することを目的としている。
提案手法は,複数のベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-09-22T10:23:40Z) - Improving Span Representation for Domain-adapted Coreference Resolution [19.826381727568222]
我々は、新しいドメインにコア参照モデルをより効率的に適用するための概念知識の利用を提案する。
エンドツーエンドのコア参照モデルに知識を組み込むことで、最も困難なドメイン固有のスパン上でのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2021-09-20T19:41:31Z) - Adaptive Active Learning for Coreference Resolution [37.261220564076964]
最近のインクリメンタルコア推論解決の進展により、この設定におけるアクティブラーニングに対する新しいアプローチが可能になる。
コアファレンスのためのデータバリアを下げることで、コアファレンスリゾルバは、以前に考慮されていない一連のドメインに迅速に適応できます。
論文 参考訳(メタデータ) (2021-04-15T17:21:51Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Active Learning for Coreference Resolution using Discrete Annotation [76.36423696634584]
我々は、コア参照解決におけるアクティブラーニングのためのペアワイズアノテーションを改善した。
提案された参照ペアがコアフェレントでないと判断された場合、アノテータに参照アンテセントを識別するよう依頼する。
既存のベンチマークコアベンチマークデータセットを用いた実験では、この追加質問からの信号が人間のアノテーション時間当たりの大幅なパフォーマンス向上につながることが示された。
論文 参考訳(メタデータ) (2020-04-28T17:17:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。