論文の概要: Meta-Learning Adversarial Domain Adaptation Network for Few-Shot Text
Classification
- arxiv url: http://arxiv.org/abs/2107.12262v1
- Date: Mon, 26 Jul 2021 15:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:25:28.151125
- Title: Meta-Learning Adversarial Domain Adaptation Network for Few-Shot Text
Classification
- Title(参考訳): Few-Shotテキスト分類のためのメタラーニング対応ドメイン適応ネットワーク
- Authors: ChengCheng Han, Zeqiu Fan, Dongxiang Zhang, Minghui Qiu, Ming Gao,
Aoying Zhou
- Abstract要約: 対戦型ドメイン適応ネットワークと統合された新しいメタ学習フレームワークを提案する。
提案手法は,全データセットにおける最先端モデルよりも明らかに優れていることを示す。
特に、20のニュースグループのデータセットにおける1ショットと5ショットの分類の精度は52.1%から59.6%に向上している。
- 参考スコア(独自算出の注目度): 31.167424308211995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning has emerged as a trending technique to tackle few-shot text
classification and achieved state-of-the-art performance. However, existing
solutions heavily rely on the exploitation of lexical features and their
distributional signatures on training data, while neglecting to strengthen the
model's ability to adapt to new tasks. In this paper, we propose a novel
meta-learning framework integrated with an adversarial domain adaptation
network, aiming to improve the adaptive ability of the model and generate
high-quality text embedding for new classes. Extensive experiments are
conducted on four benchmark datasets and our method demonstrates clear
superiority over the state-of-the-art models in all the datasets. In
particular, the accuracy of 1-shot and 5-shot classification on the dataset of
20 Newsgroups is boosted from 52.1% to 59.6%, and from 68.3% to 77.8%,
respectively.
- Abstract(参考訳): メタラーニングは、数ショットのテキスト分類に取り組むためのトレンド技術として現れ、最先端のパフォーマンスを達成した。
しかし、既存のソリューションは、新しいタスクに適応するモデルの能力を無視しながら、語彙的特徴の活用とトレーニングデータへの分布的署名に大きく依存している。
本稿では,モデルの適応性を向上し,新しいクラスに対して高品質なテキスト埋め込みを生成することを目的とした,敵対的ドメイン適応ネットワークと統合した新しいメタ学習フレームワークを提案する。
4つのベンチマークデータセットで広範な実験を行い,全データセットの最先端モデルに対して明確な優位性を示す。
特に、20のニュースグループのデータセットの1ショット分類と5ショット分類の精度は52.1%から59.6%に、それぞれ68.3%から77.8%に向上している。
関連論文リスト
- Ensembling Finetuned Language Models for Text Classification [55.15643209328513]
ファインタニング(英: Finetuning)は、特定のタスクに事前訓練されたモデルを適用するために、様々なコミュニティで一般的なプラクティスである。
ニューラルネットワークのアンサンブルは、通常、パフォーマンスを高め、信頼性の高い不確実性推定を提供するために使用される。
6つのデータセット上の5つの大きめのモデルから予測されたメタデータセットを提示し、異なるアンサンブル戦略の結果を報告する。
論文 参考訳(メタデータ) (2024-10-25T09:15:54Z) - Reducing and Exploiting Data Augmentation Noise through Meta Reweighting
Contrastive Learning for Text Classification [3.9889306957591755]
本稿では,テキスト分類タスクにおける拡張データ/サンプルを用いたディープラーニングモデルの性能向上のための新しいフレームワークを提案する。
本稿では,拡張サンプルの重み/品質情報を効果的に活用するための,新しい重み依存型列列とデキューアルゴリズムを提案する。
本フレームワークでは,テキストCNNエンコーダの平均1.6%,テキストCNNエンコーダの平均4.3%,RoBERTaベースエンコーダの平均1.4%,絶対改善の4.4%を実現している。
論文 参考訳(メタデータ) (2024-09-26T02:19:13Z) - Enhancing Image Classification in Small and Unbalanced Datasets through Synthetic Data Augmentation [0.0]
本稿では,クラス固有変分オートエンコーダ(VAE)と潜在空間を用いた,識別能力向上のための新しい合成拡張戦略を提案する。
特徴空間ギャップを埋めるリアルで多様な合成データを生成することにより、データの不足とクラス不均衡の問題に対処する。
提案手法は,エゾファゴガストロデュオ内視鏡画像の清潔度を自動評価する方法を訓練し,検証するために作成した321枚の画像の小さなデータセットで検証した。
論文 参考訳(メタデータ) (2024-09-16T13:47:52Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - TART: Improved Few-shot Text Classification Using Task-Adaptive
Reference Transformation [23.02986307143718]
本稿では,タスク適応参照変換(TART)ネットワークを提案する。
我々のモデルは、20のNewsgroupsデータセット上の1ショットと5ショットの分類において、最先端の手法を7.4%、そして5.4%上回る。
論文 参考訳(メタデータ) (2023-06-03T18:38:02Z) - Boosting Visual-Language Models by Exploiting Hard Samples [126.35125029639168]
HELIPは、既存のCLIPモデルの性能を高めるための費用対効果戦略である。
我々の方法では、既存のモデルのトレーニングパイプラインと懸命に統合できます。
包括的なベンチマークでは、HELIPはパフォーマンス向上のために既存のモデルを継続的に強化する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - Cross-Domain Few-Shot Learning with Meta Fine-Tuning [8.062394790518297]
我々はCVPR 2020 Challengeで提案された新しいクロスドメインFew-Shot Learningベンチマークに取り組む。
ドメイン適応および数ショット学習における最先端の手法に基づいて、両方のタスクを実行するためにトレーニング可能なシステムを構築する。
論文 参考訳(メタデータ) (2020-05-21T09:55:26Z) - Dynamic Memory Induction Networks for Few-Shot Text Classification [84.88381813651971]
本稿では,テキスト分類のための動的メモリ誘導ネットワーク(DMIN)を提案する。
提案したモデルでは, miniRCV1 と ODIC データセット上での新たな最先端結果を実現し,最高の性能(精度)を24%向上させる。
論文 参考訳(メタデータ) (2020-05-12T12:41:14Z) - Structure-Tags Improve Text Classification for Scholarly Document
Quality Prediction [4.4641025448898475]
本稿では,文書中の文の役割を示す構造タグとHANの利用を提案する。
文にタグを追加し、タイトル、抽象的、あるいは本文に対応するマークを付けると、学術的な文書品質予測のための最先端技術よりも改善される。
論文 参考訳(メタデータ) (2020-04-30T22:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。