論文の概要: A Curriculum Learning Approach for Multi-domain Text Classification
Using Keyword weight Ranking
- arxiv url: http://arxiv.org/abs/2210.15147v1
- Date: Thu, 27 Oct 2022 03:15:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 13:54:40.936243
- Title: A Curriculum Learning Approach for Multi-domain Text Classification
Using Keyword weight Ranking
- Title(参考訳): キーワード重み付けを用いた多領域テキスト分類のためのカリキュラム学習手法
- Authors: Zilin Yuan, Yinghui Li, Yangning Li, Rui Xie, Wei Wu, Hai-Tao Zheng
- Abstract要約: 本稿では,キーワードウェイトランキングに基づくカリキュラム学習戦略を用いて,マルチドメインテキスト分類モデルの性能を向上させることを提案する。
AmazonのレビューとFDU-MTLデータセットの実験結果から,カリキュラム学習戦略は多分野テキスト分類モデルの性能を効果的に向上することが示された。
- 参考スコア(独自算出の注目度): 17.71297141482757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text classification is a very classic NLP task, but it has two prominent
shortcomings: On the one hand, text classification is deeply domain-dependent.
That is, a classifier trained on the corpus of one domain may not perform so
well in another domain. On the other hand, text classification models require a
lot of annotated data for training. However, for some domains, there may not
exist enough annotated data. Therefore, it is valuable to investigate how to
efficiently utilize text data from different domains to improve the performance
of models in various domains. Some multi-domain text classification models are
trained by adversarial training to extract shared features among all domains
and the specific features of each domain. We noted that the distinctness of the
domain-specific features is different, so in this paper, we propose to use a
curriculum learning strategy based on keyword weight ranking to improve the
performance of multi-domain text classification models. The experimental
results on the Amazon review and FDU-MTL datasets show that our curriculum
learning strategy effectively improves the performance of multi-domain text
classification models based on adversarial learning and outperforms
state-of-the-art methods.
- Abstract(参考訳): テキスト分類は非常に古典的なNLPタスクであるが、2つの顕著な欠点がある。
つまり、あるドメインのコーパスで訓練された分類器は、他のドメインではそれほどうまく機能しない。
一方、テキスト分類モデルは、トレーニングのために多くの注釈付きデータを必要とする。
しかし、いくつかのドメインでは、十分な注釈付きデータが存在しない場合がある。
したがって、各ドメインのモデルの性能を向上させるために、異なるドメインのテキストデータを効率的に活用する方法を検討することは重要である。
いくつかのマルチドメインテキスト分類モデルは、敵の訓練によって訓練され、すべてのドメインと各ドメインの特定の特徴の共有特徴を抽出する。
そこで本稿では,キーワード重み付けに基づくカリキュラム学習戦略を用いて,マルチドメインテキスト分類モデルの性能を向上させることを提案する。
amazon review と fdu-mtl データセットを用いた実験の結果, カリキュラム学習戦略は, 逆学習に基づくマルチドメインテキスト分類モデルの性能を効果的に改善し, 最先端手法を上回っている。
関連論文リスト
- Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - Balancing Multi-Domain Corpora Learning for Open-Domain Response
Generation [3.3242685629646256]
オープンドメインの会話システムは、複数のドメインで等しく良い応答を生成すると仮定される。
本稿では,複数ドメインのコーパスに対して関連性のある応答を生成する手法について検討する。
論文 参考訳(メタデータ) (2022-05-05T11:10:54Z) - A Robust Contrastive Alignment Method For Multi-Domain Text
Classification [21.35729884948437]
マルチドメインテキスト分類は、様々なシナリオで自動的にテキストを分類することができる。
現在の高度なメソッドでは、プライベート共有のパラダイムを使用し、共有エンコーダによってドメイン共有の機能をキャプチャし、各ドメインに対してプライベートエンコーダをトレーニングしてドメイン固有の特徴を抽出する。
教師付きコントラスト学習により,異なる領域のテキスト分類特徴を同じ特徴空間に整列させる頑健なコントラストアライメント手法を提案する。
論文 参考訳(メタデータ) (2022-04-26T07:34:24Z) - Few-Shot Classification in Unseen Domains by Episodic Meta-Learning
Across Visual Domains [36.98387822136687]
興味のあるカテゴリのラベル付き例がほとんどないため、いくつかのショット分類は、分類を実行することを目的としている。
本稿では,ドメイン一般化型少ショット分類のための一意学習フレームワークを提案する。
メタ学習戦略を進めることで、学習フレームワークは複数のソースドメインにまたがるデータを利用して、ドメイン不変の機能をキャプチャします。
論文 参考訳(メタデータ) (2021-12-27T06:54:11Z) - Learning to Share by Masking the Non-shared for Multi-domain Sentiment
Classification [24.153584996936424]
テキストからドメイン関連語を明示的にマスキングし,これらのドメインに依存しないテキストからドメイン不変感の特徴を学習し,それらのマスキング語を用いてドメイン認識文表現を形成するネットワークを提案する。
適応度の高い複数領域感情分類データセットの実証実験により,提案モデルの有効性が実証された。
論文 参考訳(メタデータ) (2021-04-17T08:15:29Z) - Robust wav2vec 2.0: Analyzing Domain Shift in Self-Supervised
Pre-Training [67.71228426496013]
事前トレーニング中にターゲットドメインデータを使用することで,さまざまなセットアップで大幅なパフォーマンス向上が期待できる。
複数のドメインで事前トレーニングを行うことで、トレーニング中に見られないドメインのパフォーマンスの一般化が向上します。
論文 参考訳(メタデータ) (2021-04-02T12:53:15Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Curriculum CycleGAN for Textual Sentiment Domain Adaptation with
Multiple Sources [68.31273535702256]
我々は,C-CycleGAN(C-CycleGAN)という,新しいインスタンスレベルのMDAフレームワークを提案する。
C-CycleGANは、(1)異なるドメインからのテキスト入力を連続的な表現空間にエンコードする事前訓練されたテキストエンコーダ、(2)ソースとターゲットドメイン間のギャップを埋めるカリキュラムインスタンスレベルの適応を伴う中間ドメインジェネレータ、(3)中間ドメインで最終感情分類のために訓練されたタスク分類器の3つのコンポーネントから構成される。
3つのベンチマークデータセットに対して広範な実験を行い、最先端のDAアプローチよりも大幅に向上した。
論文 参考訳(メタデータ) (2020-11-17T14:50:55Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Unsupervised Domain Clusters in Pretrained Language Models [61.832234606157286]
大規模事前学習型言語モデルでは,教師なしのドメインによってクラスタ化される文表現を暗黙的に学習する。
このようなモデルに基づくドメインデータ選択手法を提案する。
我々は5つの異なる領域にわたるニューラルネットワーク翻訳のためのデータ選択手法を評価する。
論文 参考訳(メタデータ) (2020-04-05T06:22:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。