論文の概要: Mention Annotations Alone Enable Efficient Domain Adaptation for
Coreference Resolution
- arxiv url: http://arxiv.org/abs/2210.07602v2
- Date: Tue, 30 May 2023 22:07:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 04:08:40.009397
- Title: Mention Annotations Alone Enable Efficient Domain Adaptation for
Coreference Resolution
- Title(参考訳): 参照解決のための効率的なドメイン適応を可能にするメンションアノテーション
- Authors: Nupoor Gandhi, Anjalie Field, Emma Strubell
- Abstract要約: 注釈付けだけでは、注釈付けが完全なコア参照チェーンの約2倍の速さであることを示す。
提案手法はアノテーション効率を向上し,アノテータ時間の増加を伴わずにF1の平均値が7~14%向上する。
- 参考スコア(独自算出の注目度): 8.08448832546021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although recent neural models for coreference resolution have led to
substantial improvements on benchmark datasets, transferring these models to
new target domains containing out-of-vocabulary spans and requiring differing
annotation schemes remains challenging. Typical approaches involve continued
training on annotated target-domain data, but obtaining annotations is costly
and time-consuming. We show that annotating mentions alone is nearly twice as
fast as annotating full coreference chains. Accordingly, we propose a method
for efficiently adapting coreference models, which includes a high-precision
mention detection objective and requires annotating only mentions in the target
domain. Extensive evaluation across three English coreference datasets:
CoNLL-2012 (news/conversation), i2b2/VA (medical notes), and previously
unstudied child welfare notes, reveals that our approach facilitates
annotation-efficient transfer and results in a 7-14% improvement in average F1
without increasing annotator time.
- Abstract(参考訳): コア参照解決のための最近のニューラルモデルは、ベンチマークデータセットを大幅に改善したが、これらのモデルを語彙外スパンを含む新しいターゲットドメインに転送し、異なるアノテーションスキームを必要とすることは、依然として困難である。
典型的なアプローチは、アノテートされたターゲットドメインデータの継続的なトレーニングを含むが、アノテーションの取得はコストと時間を要する。
注記のみをアノテートすることは、完全なコリファレンスチェーンのアノテートのほぼ2倍の速度であることを示している。
そこで本研究では,高い精度の参照検出目標を含む,対象領域の参照のみをアノテートする必要があるコリファレンスモデルを効率的に適応する手法を提案する。
conll-2012 (news/conversation), i2b2/va (medical notes), and prior unstudied child welfare notes) の3つの英語コリファレンスデータセットで広範な評価を行った結果,アノテーション効率が向上し,アノテータ時間を増加させることなく平均f1が7~14%向上した。
関連論文リスト
- Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - Holistic Transfer: Towards Non-Disruptive Fine-Tuning with Partial
Target Data [32.91362206231936]
本稿では,事前学習したソースモデルを対象領域に適応させ,ソースデータに現れるすべてのクラスを分類する学習問題を提案する。
対象のエンドユーザが適応前にすべてのクラスのデータを集めるのは現実的ではないため,この問題は現実的だ。
欠落したクラスの精度を保ち、全体的な性能を向上する有効なソリューションをいくつか提示する。
論文 参考訳(メタデータ) (2023-11-02T17:35:16Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - AcroFOD: An Adaptive Method for Cross-domain Few-shot Object Detection [59.10314662986463]
クロスドメインの少数ショットオブジェクト検出は、いくつかの注釈付きターゲットデータで対象ドメイン内のオブジェクト検出器を適応することを目的としている。
提案手法は,複数のベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-09-22T10:23:40Z) - Improving Span Representation for Domain-adapted Coreference Resolution [19.826381727568222]
我々は、新しいドメインにコア参照モデルをより効率的に適用するための概念知識の利用を提案する。
エンドツーエンドのコア参照モデルに知識を組み込むことで、最も困難なドメイン固有のスパン上でのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2021-09-20T19:41:31Z) - Adaptive Active Learning for Coreference Resolution [37.261220564076964]
最近のインクリメンタルコア推論解決の進展により、この設定におけるアクティブラーニングに対する新しいアプローチが可能になる。
コアファレンスのためのデータバリアを下げることで、コアファレンスリゾルバは、以前に考慮されていない一連のドメインに迅速に適応できます。
論文 参考訳(メタデータ) (2021-04-15T17:21:51Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Active Learning for Coreference Resolution using Discrete Annotation [76.36423696634584]
我々は、コア参照解決におけるアクティブラーニングのためのペアワイズアノテーションを改善した。
提案された参照ペアがコアフェレントでないと判断された場合、アノテータに参照アンテセントを識別するよう依頼する。
既存のベンチマークコアベンチマークデータセットを用いた実験では、この追加質問からの信号が人間のアノテーション時間当たりの大幅なパフォーマンス向上につながることが示された。
論文 参考訳(メタデータ) (2020-04-28T17:17:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。