論文の概要: Few-Shot Domain Adaptation for Grammatical Error Correction via
Meta-Learning
- arxiv url: http://arxiv.org/abs/2101.12409v1
- Date: Fri, 29 Jan 2021 05:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 16:55:44.660173
- Title: Few-Shot Domain Adaptation for Grammatical Error Correction via
Meta-Learning
- Title(参考訳): メタラーニングによる文法誤り訂正のためのFew-Shot Domain Adaptation
- Authors: Shengsheng Zhang, Yaping Huang, Yun Chen, Liner Yang, Chencheng Wang,
Erhong Yang
- Abstract要約: シーケンス・ツー・シーケンスに基づく文法的誤り訂正(GEC)法は主に、より良いパフォーマンスを得るために、より疑似的なデータを生成する方法に焦点を当てている。
我々は、異なるGECドメインを異なるGECタスクとして扱うとともに、擬似データを用いることなく、メタラーニングを少数ショットのGECドメイン適応に拡張することを提案する。
- 参考スコア(独自算出の注目度): 7.63233690743613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing Grammatical Error Correction (GEC) methods based on
sequence-to-sequence mainly focus on how to generate more pseudo data to obtain
better performance. Few work addresses few-shot GEC domain adaptation. In this
paper, we treat different GEC domains as different GEC tasks and propose to
extend meta-learning to few-shot GEC domain adaptation without using any pseudo
data. We exploit a set of data-rich source domains to learn the initialization
of model parameters that facilitates fast adaptation on new resource-poor
target domains. We adapt GEC model to the first language (L1) of the second
language learner. To evaluate the proposed method, we use nine L1s as source
domains and five L1s as target domains. Experiment results on the L1 GEC domain
adaptation dataset demonstrate that the proposed approach outperforms the
multi-task transfer learning baseline by 0.50 $F_{0.5}$ score on average and
enables us to effectively adapt to a new L1 domain with only 200 parallel
sentences.
- Abstract(参考訳): シーケンス・トゥ・シークエンスに基づく既存のGEC(Grammatical Error Correction)メソッドの多くは、より優れたパフォーマンスを得るためにより多くの擬似データを生成する方法に焦点を当てている。
少数のGECドメイン適応に対処する作業はほとんどない。
本稿では、異なるGECドメインを異なるGECタスクとして扱い、疑似データを使用せずに、メタラーニングを少数のGECドメイン適応に拡張することを提案する。
データ豊富なソースドメインのセットを利用してモデルパラメータの初期化を学び、新しいリソース-poorターゲットドメインへの迅速な適応を促進する。
GECモデルを第2言語学習者の第1言語(L1)に適用する。
提案手法を評価するために,9つのL1をソースドメイン,5つのL1をターゲットドメインとする。
L1 GEC領域適応データセットの実験結果から,提案手法は平均0.50ドルF_{0.5}$スコアのマルチタスク変換学習ベースラインよりも優れており,200のパラレル文しか持たない新しいL1ドメインに効果的に適応できることを示した。
関連論文リスト
- Domain-Rectifying Adapter for Cross-Domain Few-Shot Segmentation [40.667166043101076]
多様なターゲットドメインスタイルをソースドメインに修正するための小さなアダプタを提案する。
アダプタは、さまざまな合成対象ドメインから画像特徴を修正して、ソースドメインと整合するように訓練される。
提案手法は,ドメイン間複数ショットセマンティックセマンティックセグメンテーションタスクにおいて有望な結果を得る。
論文 参考訳(メタデータ) (2024-04-16T07:07:40Z) - UDApter -- Efficient Domain Adaptation Using Adapters [29.70751969196527]
教師なし領域適応をより効率的にするための2つの手法を提案する。
最初のメソッドは、UDAを2段階のプロセスに分解する。
私たちは、完全なモデルパラメータのごく一部を微調整することで、自然言語推論タスクの0.85% F1以内です。
論文 参考訳(メタデータ) (2023-02-07T02:04:17Z) - Connecting adversarial attacks and optimal transport for domain
adaptation [116.50515978657002]
ドメイン適応では、ソースドメインのサンプルに基づいてトレーニングされた分類器をターゲットドメインに適応させることが目標である。
提案手法では,最適なトランスポートを用いて,対象のサンプルをソース・フィクションという名前のドメインにマッピングする。
我々の主なアイデアは、ターゲットドメイン上のc-環状モノトン変換によってソースフィクションを生成することである。
論文 参考訳(メタデータ) (2022-05-30T20:45:55Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Reiterative Domain Aware Multi-target Adaptation [14.352214079374463]
本稿では,各対象領域を複数回繰り返して適応性能を向上させるReiterative D-CGCT(RD-CGCT)を提案する。
RD-CGCTは、Office-HomeおよびOffice31データセットのD-CGCTよりも大幅に性能を向上する。
論文 参考訳(メタデータ) (2021-08-26T17:12:25Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Multi-Source Domain Adaptation with Collaborative Learning for Semantic
Segmentation [32.95273803359897]
マルチソース非監視ドメイン適応(MSDA)は、複数のラベル付きソースドメインで訓練されたモデルをラベル付きターゲットドメインに適応することを目的とする。
セマンティックセグメンテーションのための協調学習に基づく新しいマルチソースドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T12:51:42Z) - Curriculum CycleGAN for Textual Sentiment Domain Adaptation with
Multiple Sources [68.31273535702256]
我々は,C-CycleGAN(C-CycleGAN)という,新しいインスタンスレベルのMDAフレームワークを提案する。
C-CycleGANは、(1)異なるドメインからのテキスト入力を連続的な表現空間にエンコードする事前訓練されたテキストエンコーダ、(2)ソースとターゲットドメイン間のギャップを埋めるカリキュラムインスタンスレベルの適応を伴う中間ドメインジェネレータ、(3)中間ドメインで最終感情分類のために訓練されたタスク分類器の3つのコンポーネントから構成される。
3つのベンチマークデータセットに対して広範な実験を行い、最先端のDAアプローチよりも大幅に向上した。
論文 参考訳(メタデータ) (2020-11-17T14:50:55Z) - Learning Domain-invariant Graph for Adaptive Semi-supervised Domain
Adaptation with Few Labeled Source Samples [65.55521019202557]
ドメイン適応は、ソースドメインからモデルを一般化して、関連するが異なるターゲットドメインのタスクに取り組むことを目的としています。
従来のドメイン適応アルゴリズムは、事前知識として扱われる十分なラベル付きデータがソースドメインで利用できると仮定する。
少数のラベル付きソースサンプルを用いたドメイン適応のためのドメイン不変グラフ学習(DGL)手法を提案する。
論文 参考訳(メタデータ) (2020-08-21T08:13:25Z) - Multi-Domain Spoken Language Understanding Using Domain- and Task-Aware
Parameterization [78.93669377251396]
音声言語理解は、各ドメインでトレーニングデータのセットが利用できる教師付き学習問題として対処されてきた。
既存の1つのアプローチは、ドメイン間の共同トレーニングに共有パラメータを使用して、マルチドメイン学習を行うことによって、この問題を解決する。
本稿では,ドメイン固有モデルパラメータとタスク固有モデルパラメータを用いて,この手法のパラメータ化を改善することを提案する。
論文 参考訳(メタデータ) (2020-04-30T15:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。