論文の概要: Meta-Learning Adversarial Domain Adaptation Network for Few-Shot Text
Classification
- arxiv url: http://arxiv.org/abs/2107.12262v1
- Date: Mon, 26 Jul 2021 15:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:25:28.151125
- Title: Meta-Learning Adversarial Domain Adaptation Network for Few-Shot Text
Classification
- Title(参考訳): Few-Shotテキスト分類のためのメタラーニング対応ドメイン適応ネットワーク
- Authors: ChengCheng Han, Zeqiu Fan, Dongxiang Zhang, Minghui Qiu, Ming Gao,
Aoying Zhou
- Abstract要約: 対戦型ドメイン適応ネットワークと統合された新しいメタ学習フレームワークを提案する。
提案手法は,全データセットにおける最先端モデルよりも明らかに優れていることを示す。
特に、20のニュースグループのデータセットにおける1ショットと5ショットの分類の精度は52.1%から59.6%に向上している。
- 参考スコア(独自算出の注目度): 31.167424308211995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning has emerged as a trending technique to tackle few-shot text
classification and achieved state-of-the-art performance. However, existing
solutions heavily rely on the exploitation of lexical features and their
distributional signatures on training data, while neglecting to strengthen the
model's ability to adapt to new tasks. In this paper, we propose a novel
meta-learning framework integrated with an adversarial domain adaptation
network, aiming to improve the adaptive ability of the model and generate
high-quality text embedding for new classes. Extensive experiments are
conducted on four benchmark datasets and our method demonstrates clear
superiority over the state-of-the-art models in all the datasets. In
particular, the accuracy of 1-shot and 5-shot classification on the dataset of
20 Newsgroups is boosted from 52.1% to 59.6%, and from 68.3% to 77.8%,
respectively.
- Abstract(参考訳): メタラーニングは、数ショットのテキスト分類に取り組むためのトレンド技術として現れ、最先端のパフォーマンスを達成した。
しかし、既存のソリューションは、新しいタスクに適応するモデルの能力を無視しながら、語彙的特徴の活用とトレーニングデータへの分布的署名に大きく依存している。
本稿では,モデルの適応性を向上し,新しいクラスに対して高品質なテキスト埋め込みを生成することを目的とした,敵対的ドメイン適応ネットワークと統合した新しいメタ学習フレームワークを提案する。
4つのベンチマークデータセットで広範な実験を行い,全データセットの最先端モデルに対して明確な優位性を示す。
特に、20のニュースグループのデータセットの1ショット分類と5ショット分類の精度は52.1%から59.6%に、それぞれ68.3%から77.8%に向上している。
関連論文リスト
- Improved Zero-Shot Classification by Adapting VLMs with Text
Descriptions [27.644484204783144]
我々は,視覚言語モデル(VLM)を「バグレベル」の画像テキスト管理で訓練する手法を開発した。
我々は,大規模言語モデル(LLM)によって生成されたカテゴリと,豊富な,きめ細かい画像分類データセットを用いて記述する。
以上の結果から,地理的先行は視覚的外観と同等に有効である可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-04T08:39:13Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - TART: Improved Few-shot Text Classification Using Task-Adaptive
Reference Transformation [23.02986307143718]
本稿では,タスク適応参照変換(TART)ネットワークを提案する。
我々のモデルは、20のNewsgroupsデータセット上の1ショットと5ショットの分類において、最先端の手法を7.4%、そして5.4%上回る。
論文 参考訳(メタデータ) (2023-06-03T18:38:02Z) - Boosting Visual-Language Models by Exploiting Hard Samples [126.35125029639168]
HELIPは、既存のCLIPモデルの性能を高めるための費用対効果戦略である。
我々の方法では、既存のモデルのトレーニングパイプラインと懸命に統合できます。
包括的なベンチマークでは、HELIPはパフォーマンス向上のために既存のモデルを継続的に強化する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - Investigating Pretrained Language Models for Graph-to-Text Generation [55.55151069694146]
Graph-to-text生成は、グラフベースのデータから流動的なテキストを生成することを目的としている。
本稿では,3つのグラフ領域,つまり表現,ウィキペディア知識グラフ(KG),科学的なKGについて検討する。
我々は, PLM の BART と T5 が新たな最先端の成果を達成し, タスク適応型事前学習戦略が性能をさらに向上することを示す。
論文 参考訳(メタデータ) (2020-07-16T16:05:34Z) - Cross-Domain Few-Shot Learning with Meta Fine-Tuning [8.062394790518297]
我々はCVPR 2020 Challengeで提案された新しいクロスドメインFew-Shot Learningベンチマークに取り組む。
ドメイン適応および数ショット学習における最先端の手法に基づいて、両方のタスクを実行するためにトレーニング可能なシステムを構築する。
論文 参考訳(メタデータ) (2020-05-21T09:55:26Z) - Dynamic Memory Induction Networks for Few-Shot Text Classification [84.88381813651971]
本稿では,テキスト分類のための動的メモリ誘導ネットワーク(DMIN)を提案する。
提案したモデルでは, miniRCV1 と ODIC データセット上での新たな最先端結果を実現し,最高の性能(精度)を24%向上させる。
論文 参考訳(メタデータ) (2020-05-12T12:41:14Z) - Structure-Tags Improve Text Classification for Scholarly Document
Quality Prediction [4.4641025448898475]
本稿では,文書中の文の役割を示す構造タグとHANの利用を提案する。
文にタグを追加し、タイトル、抽象的、あるいは本文に対応するマークを付けると、学術的な文書品質予測のための最先端技術よりも改善される。
論文 参考訳(メタデータ) (2020-04-30T22:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。