論文の概要: Prior Omission of Dissimilar Source Domain(s) for Cost-Effective
Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2109.05234v1
- Date: Sat, 11 Sep 2021 09:30:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 16:10:18.001382
- Title: Prior Omission of Dissimilar Source Domain(s) for Cost-Effective
Few-Shot Learning
- Title(参考訳): 費用対効果のあるマイノショット学習のための異種ソースドメインの事前欠落
- Authors: Zezhong Wang, Hongru Wang, Kwan Wai Chung, Jia Zhu, Gabriel Pui Cheong
Fung, Kam-Fai Wong
- Abstract要約: ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル(NLU)の分野における新たな研究課題
ソースドメインからの十分なアノテートされたデータによって、重要な課題は、モデルを少数のラベルしか持たない別のターゲットドメインにトレーニングし、適応する方法である。
- 参考スコア(独自算出の注目度): 24.647313693814798
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Few-shot slot tagging is an emerging research topic in the field of Natural
Language Understanding (NLU). With sufficient annotated data from source
domains, the key challenge is how to train and adapt the model to another
target domain which only has few labels. Conventional few-shot approaches use
all the data from the source domains without considering inter-domain relations
and implicitly assume each sample in the domain contributes equally. However,
our experiments show that the data distribution bias among different domains
will significantly affect the adaption performance. Moreover, transferring
knowledge from dissimilar domains will even introduce some extra noises so that
affect the performance of models. To tackle this problem, we propose an
effective similarity-based method to select data from the source domains. In
addition, we propose a Shared-Private Network (SP-Net) for the few-shot slot
tagging task. The words from the same class would have some shared features. We
extract those shared features from the limited annotated data on the target
domain and merge them together as the label embedding to help us predict other
unlabelled data on the target domain. The experiment shows that our method
outperforms the state-of-the-art approaches with fewer source data. The result
also proves that some training data from dissimilar sources are redundant and
even negative for the adaption.
- Abstract(参考訳): スロットタギングは自然言語理解(NLU)分野における新たな研究課題である。
ソースドメインからの十分なアノテートされたデータによって、重要な課題は、モデルをラベルがほとんどない別のターゲットドメインにトレーニングし、適応する方法である。
従来の少数ショットアプローチでは、ソースドメインからのすべてのデータをドメイン間の関係を考慮せずに使用し、ドメイン内の各サンプルが均等に寄与することを暗黙的に想定する。
しかし,本実験では,異なる領域間でのデータ分散バイアスが適応性能に大きく影響することを示した。
さらに、異なるドメインから知識を移すと、モデルのパフォーマンスに影響を与える追加のノイズが発生する。
そこで本研究では,ソース領域からデータを選択する効果的な類似性に基づく手法を提案する。
さらに,数ショットのスロットタギングタスクに対して,SP-Net(Shared-Private Network)を提案する。
同じクラスの単語には、いくつかの共有機能がある。
ターゲットドメインの限定されたアノテートデータからこれらの共有機能を抽出し、ラベル埋め込みとしてマージすることで、ターゲットドメインの他のラベルなしデータを予測できるようにする。
実験の結果,本手法は少ないソースデータで最先端のアプローチに勝ることがわかった。
その結果、異なるソースからのトレーニングデータの一部が冗長で、適応にマイナスであることも証明された。
関連論文リスト
- Cross-Domain Few-Shot Classification via Inter-Source Stylization [11.008292768447614]
Cross-Domain Few-Shot Classification (CDFSC)は、限られたラベル付きデータでターゲットデータセットを正確に分類することである。
本稿では、追加のラベル付けコストを必要とせずに複数のソースドメインを利用するソリューションを提案する。
論文 参考訳(メタデータ) (2022-08-17T01:44:32Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Domain Impression: A Source Data Free Domain Adaptation Method [27.19677042654432]
教師なしドメイン適応法は、ソースデータセットがすべてのラベルで利用可能であると仮定して、ラベルなしのターゲットセットの適応問題を解決する。
本稿では,ソースデータを必要としないドメイン適応手法を提案する。
ソースデータの代わりに、ソースデータに基づいてトレーニングされた分類器のみを提供しています。
論文 参考訳(メタデータ) (2021-02-17T19:50:49Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z) - Multi-source Domain Adaptation for Visual Sentiment Classification [92.53780541232773]
マルチソース・ドメイン適応(MDA)手法をMSGAN(Multi-source Sentiment Generative Adversarial Network)と呼ぶ。
複数のソースドメインからのデータを扱うために、MSGANはソースドメインとターゲットドメインの両方のデータが同じ分布を共有する、統一された感情潜在空間を見つけることを学ぶ。
4つのベンチマークデータセットで実施された大規模な実験により、MSGANは視覚的感情分類のための最先端のMDAアプローチよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2020-01-12T08:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。