論文の概要: Unsupervised Reinforcement Adaptation for Class-Imbalanced Text
Classification
- arxiv url: http://arxiv.org/abs/2205.13139v1
- Date: Thu, 26 May 2022 04:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-28 05:06:46.113861
- Title: Unsupervised Reinforcement Adaptation for Class-Imbalanced Text
Classification
- Title(参考訳): クラス不均衡テキスト分類のための教師なし強化適応
- Authors: Yuexin Wu and Xiaolei Huang
- Abstract要約: クラス不均衡は、異なるドメインのトレーニングモデルとテストモデルに自然に存在する。
教師なしドメイン適応(UDA)は、ソースドメインからのみアクセス可能なアノテーションでモデルパフォーマンスを向上する。
本稿では、強化学習による教師なしドメイン適応手法を提案する。
- 参考スコア(独自算出の注目度): 11.574416766823694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class imbalance naturally exists when train and test models in different
domains. Unsupervised domain adaptation (UDA) augments model performance with
only accessible annotations from the source domain and unlabeled data from the
target domain. However, existing state-of-the-art UDA models learn
domain-invariant representations and evaluate primarily on class-balanced data
across domains. In this work, we propose an unsupervised domain adaptation
approach via reinforcement learning that jointly leverages feature variants and
imbalanced labels across domains. We experiment with the text classification
task for its easily accessible datasets and compare the proposed method with
five baselines. Experiments on three datasets prove that our proposed method
can effectively learn robust domain-invariant representations and successfully
adapt text classifiers on imbalanced classes over domains. The code is
available at https://github.com/woqingdoua/ImbalanceClass.
- Abstract(参考訳): クラス不均衡は、異なるドメインのトレーニングモデルとテストモデルに自然に存在する。
unsupervised domain adaptation(uda)は、ソースドメインからのアクセス可能なアノテーションと、対象ドメインからのラベルなしデータのみを使用して、モデルパフォーマンスを増強する。
しかし、既存の最先端のUDAモデルはドメイン不変表現を学習し、主にドメイン間のクラスバランスのデータに基づいて評価する。
本研究では,ドメイン間の特徴量と不均衡なラベルを協調的に活用する強化学習による教師なしドメイン適応手法を提案する。
そこで本論文では,テキスト分類タスクを実験し,提案手法と5つのベースラインを比較した。
3つのデータセットの実験により,提案手法はドメイン不変表現を効果的に学習し,不均衡なクラスにテキスト分類器を適用できることが証明された。
コードはhttps://github.com/woqingdoua/imbalanceclassで入手できる。
関連論文リスト
- Attention-based Class-Conditioned Alignment for Multi-Source Domain Adaptation of Object Detectors [11.616494893839757]
オブジェクト検出(OD)のドメイン適応手法は、ソースドメインとターゲットドメイン間の特徴調整を促進することによって、分散シフトの影響を軽減する。
ODのための最先端MSDA手法の多くは、クラスに依存しない方法で特徴アライメントを実行する。
ドメイン間で各オブジェクトカテゴリのインスタンスをアライメントするMSDAのための注目型クラス条件アライメント手法を提案する。
論文 参考訳(メタデータ) (2024-03-14T23:31:41Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Surprisingly Simple Semi-Supervised Domain Adaptation with Pretraining
and Consistency [93.89773386634717]
ビジュアルドメイン適応は、異なるソースドメインで利用可能なラベルを使用して、ターゲットのビジュアルドメインからイメージを分類する学習を含む。
いくつかの目標ラベルが存在する場合、(回転予測による)自己スーパービジョンや整合正則化といった単純な手法が、適切な目標分類器を学習するための対角アライメントなしで有効であることを示す。
我々の事前学習と一貫性(PAC)アプローチは、この半教師付きドメイン適応タスクにおいて、複数のデータセットにまたがる複数の対向的なドメインアライメント手法を超越して、技術精度を達成することができる。
論文 参考訳(メタデータ) (2021-01-29T18:40:17Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z) - Domain Adaptation with Conditional Distribution Matching and Generalized
Label Shift [20.533804144992207]
相互学習は教師なし領域適応設定において優れた性能を示した。
本稿では,ラベル分布の不一致に対するロバスト性を改善するために,新たな仮定である一般化ラベルシフト(GLS$)を提案する。
我々のアルゴリズムは、大きなラベルの分布ミスマッチに対して大幅に改善され、ベースバージョンよりも優れています。
論文 参考訳(メタデータ) (2020-03-10T00:35:23Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z) - Enlarging Discriminative Power by Adding an Extra Class in Unsupervised
Domain Adaptation [5.377369521932011]
新たに人工的なクラスを追加し、新しいクラスのGAN生成サンプルとともにデータ上でモデルをトレーニングする。
私たちのアイデアは、DANN、VADA、DIRT-Tといった既存のメソッドと互換性がある、非常に一般的なものです。
論文 参考訳(メタデータ) (2020-02-19T07:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。