論文の概要: TART: Improved Few-shot Text Classification Using Task-Adaptive
Reference Transformation
- arxiv url: http://arxiv.org/abs/2306.02175v1
- Date: Sat, 3 Jun 2023 18:38:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 19:47:31.918320
- Title: TART: Improved Few-shot Text Classification Using Task-Adaptive
Reference Transformation
- Title(参考訳): tart: task-adaptive reference transformation によるテキスト分類の改善
- Authors: Shuo Lei, Xuchao Zhang, Jianfeng He, Fanglan Chen, Chang-Tien Lu
- Abstract要約: 本稿では,タスク適応参照変換(TART)ネットワークを提案する。
我々のモデルは、20のNewsgroupsデータセット上の1ショットと5ショットの分類において、最先端の手法を7.4%、そして5.4%上回る。
- 参考スコア(独自算出の注目度): 23.02986307143718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning has emerged as a trending technique to tackle few-shot text
classification and achieve state-of-the-art performance. However, the
performance of existing approaches heavily depends on the inter-class variance
of the support set. As a result, it can perform well on tasks when the
semantics of sampled classes are distinct while failing to differentiate
classes with similar semantics. In this paper, we propose a novel Task-Adaptive
Reference Transformation (TART) network, aiming to enhance the generalization
by transforming the class prototypes to per-class fixed reference points in
task-adaptive metric spaces. To further maximize divergence between transformed
prototypes in task-adaptive metric spaces, TART introduces a discriminative
reference regularization among transformed prototypes. Extensive experiments
are conducted on four benchmark datasets and our method demonstrates clear
superiority over the state-of-the-art models in all the datasets. In
particular, our model surpasses the state-of-the-art method by 7.4% and 5.4% in
1-shot and 5-shot classification on the 20 Newsgroups dataset, respectively.
- Abstract(参考訳): メタラーニングは、数少ないテキスト分類に取り組み、最先端のパフォーマンスを達成するためのトレンド技術として登場した。
しかし、既存のアプローチの性能はサポートセットのクラス間分散に大きく依存する。
結果として、サンプルクラスのセマンティクスが異なっている一方で、同様のセマンティクスを持つクラスを区別できない場合、タスクでうまく機能する。
本稿では,タスク適応距離空間において,クラスプロトタイプをクラスごとの固定基準点に変換することで一般化を促進すべく,タスク適応基準変換(TART)ネットワークを提案する。
タスク適応距離空間における変換されたプロトタイプ間の分岐をさらに最大化するため、tartは変換されたプロトタイプ間の判別参照正規化を導入する。
4つのベンチマークデータセットで広範な実験を行い,全データセットの最先端モデルに対して明確な優位性を示す。
特に,20のNewsgroupsデータセットにおける1ショットと5ショットの分類では,最先端の手法を7.4%,5.4%に超えている。
関連論文リスト
- Improve Meta-learning for Few-Shot Text Classification with All You Can Acquire from the Tasks [10.556477506959888]
既存の手法は、しばしばサポートセットのサンプルから正確なクラスプロトタイプを描くのに困難に遭遇する。
近年のアプローチでは、外部知識や事前訓練された言語モデルを組み込んでデータを拡張しようとするが、追加のリソースが必要になる。
本稿では,タスク自体の情報を適切に活用した新しいソリューションを提案する。
論文 参考訳(メタデータ) (2024-10-14T12:47:11Z) - Benchmarking Test-Time Adaptation against Distribution Shifts in Image
Classification [77.0114672086012]
テスト時間適応(TTA)は、予測時にのみラベルのないサンプルを活用することにより、モデルの一般化性能を向上させる技術である。
本稿では,広く使用されている5つの画像分類データセット上で,13のTTA手法とその変種を体系的に評価するベンチマークを提案する。
論文 参考訳(メタデータ) (2023-07-06T16:59:53Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Meta-learning Pathologies from Radiology Reports using Variance Aware
Prototypical Networks [3.464871689508835]
本稿では,数ショットのテキスト分類のためのプロトタイプネットワークの簡易拡張を提案する。
我々の主な考えは、クラスプロトタイプをガウスに置き換え、サンプルを適切なクラスセントロイドの近くでクラスタ化することを奨励する正規化項を導入することである。
論文 参考訳(メタデータ) (2022-10-22T05:22:29Z) - Adaptive Meta-learner via Gradient Similarity for Few-shot Text
Classification [11.035878821365149]
本稿では, モデル一般化能力の向上を図るため, 適応型メタラーナをグラディエント類似性(AMGS)を介して提案する。
いくつかのベンチマークによる実験結果から,提案したAMGSは連続的にテキスト分類性能を向上することが示された。
論文 参考訳(メタデータ) (2022-09-10T16:14:53Z) - Unsupervised Contrastive Domain Adaptation for Semantic Segmentation [75.37470873764855]
クロスドメイン適応における特徴アライメントのためのコントラスト学習を導入する。
提案手法は、ドメイン適応のための最先端手法を一貫して上回る。
Cityscapesデータセットで60.2% mIoUを達成した。
論文 参考訳(メタデータ) (2022-04-18T16:50:46Z) - Exploiting Local and Global Features in Transformer-based Extreme
Multi-label Text Classification [28.28186933768281]
本稿では,Transformerモデルが生成する局所的特徴とグローバル的特徴を組み合わせることで,分類器の予測能力を向上させる手法を提案する。
本実験は,提案モデルがベンチマークデータセットの最先端手法よりも優れているか,あるいは同等であることを示す。
論文 参考訳(メタデータ) (2022-04-02T19:55:23Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Spatio-temporal Relation Modeling for Few-shot Action Recognition [100.3999454780478]
本稿では,高次時間表現を同時に学習しながら,クラス固有の特徴の識別性を向上する数ショットアクション認識フレームワークSTRMを提案する。
本手法は,本研究でもっとも優れた手法に比べて,分類精度が3.5%向上した。
論文 参考訳(メタデータ) (2021-12-09T18:59:14Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Meta-Learning Adversarial Domain Adaptation Network for Few-Shot Text
Classification [31.167424308211995]
対戦型ドメイン適応ネットワークと統合された新しいメタ学習フレームワークを提案する。
提案手法は,全データセットにおける最先端モデルよりも明らかに優れていることを示す。
特に、20のニュースグループのデータセットにおける1ショットと5ショットの分類の精度は52.1%から59.6%に向上している。
論文 参考訳(メタデータ) (2021-07-26T15:09:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。