論文の概要: Boosting Few-Shot Text Classification via Distribution Estimation
- arxiv url: http://arxiv.org/abs/2303.16764v1
- Date: Sun, 26 Mar 2023 05:58:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 14:23:02.544853
- Title: Boosting Few-Shot Text Classification via Distribution Estimation
- Title(参考訳): 分布推定による部分ショットテキスト分類の強化
- Authors: Han Liu, Feng Zhang, Xiaotong Zhang, Siyang Zhao, Fenglong Ma,
Xiao-Ming Wu, Hongyang Chen, Hong Yu, Xianchao Zhang
- Abstract要約: そこで本稿では,未ラベルの問合せサンプルを用いて,新しいクラスの分布を推定する,単純かつ効果的な2つの手法を提案する。
具体的には、まずクラスまたはサンプルをガウス分布に従って仮定し、元のサポートセットと最も近いクエリサンプルを使用する。
そして,推定分布から抽出したラベル付きサンプルを増量し,分類モデルの訓練に十分な監督力を与える。
- 参考スコア(独自算出の注目度): 38.99459686893034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distribution estimation has been demonstrated as one of the most effective
approaches in dealing with few-shot image classification, as the low-level
patterns and underlying representations can be easily transferred across
different tasks in computer vision domain. However, directly applying this
approach to few-shot text classification is challenging, since leveraging the
statistics of known classes with sufficient samples to calibrate the
distributions of novel classes may cause negative effects due to serious
category difference in text domain. To alleviate this issue, we propose two
simple yet effective strategies to estimate the distributions of the novel
classes by utilizing unlabeled query samples, thus avoiding the potential
negative transfer issue. Specifically, we first assume a class or sample
follows the Gaussian distribution, and use the original support set and the
nearest few query samples to estimate the corresponding mean and covariance.
Then, we augment the labeled samples by sampling from the estimated
distribution, which can provide sufficient supervision for training the
classification model. Extensive experiments on eight few-shot text
classification datasets show that the proposed method outperforms
state-of-the-art baselines significantly.
- Abstract(参考訳): 低レベルパターンと下層の表現はコンピュータビジョン領域の異なるタスク間で容易に転送できるため、画像の分類に最も効果的な方法の1つとして分布推定が実証されている。
しかし, この手法を少数のテキスト分類に直接適用することは困難であり, 既知のクラス統計を十分なサンプルで活用して, 新規クラスの分布を校正することは, テキスト領域の深刻なカテゴリー差による負の影響を生じさせる可能性がある。
そこで本研究では,ラベルなしの問合せサンプルを用いて,新しいクラスの分布を推定する2つの簡易かつ効果的な手法を提案する。
具体的には、まずガウス分布に従ってクラスやサンプルを仮定し、元のサポートセットと最も近いクエリサンプルを用いて対応する平均と共分散を推定する。
次に,推定分布からのサンプリングによりラベル付きサンプルを増強し,分類モデルの訓練に十分な監督を行う。
8つの数ショットのテキスト分類データセットに対する大規模な実験により、提案手法は最先端のベースラインを大幅に上回ることを示した。
関連論文リスト
- Liberating Seen Classes: Boosting Few-Shot and Zero-Shot Text Classification via Anchor Generation and Classification Reframing [38.84431954053434]
短いショットとゼロショットのテキスト分類は、ラベル付きサンプルやラベル付きサンプルが全くない新しいクラスからのサンプルを認識することを目的としている。
少数ショットとゼロショットのテキスト分類のためのシンプルで効果的な戦略を提案する。
論文 参考訳(メタデータ) (2024-05-06T15:38:32Z) - Proposal Distribution Calibration for Few-Shot Object Detection [65.19808035019031]
few-shot object detection (FSOD)では、重度のサンプル不均衡を軽減するために、2段階の訓練パラダイムが広く採用されている。
残念ながら、極端なデータ不足は、提案の分布バイアスを増大させ、RoIヘッドが新しいクラスに進化するのを妨げます。
本稿では,RoIヘッドのローカライゼーションと分類能力を高めるために,単純かつ効果的な提案分布キャリブレーション(PDC)手法を提案する。
論文 参考訳(メタデータ) (2022-12-15T05:09:11Z) - Local overlap reduction procedure for dynamic ensemble selection [13.304462985219237]
クラス不均衡は、分類モデルにおいて学習をより困難にすることで知られる特徴である。
分類過程における局所クラス重複の影響を最小限に抑えるDS手法を提案する。
実験の結果,提案手法はベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2022-06-16T21:31:05Z) - POODLE: Improving Few-shot Learning via Penalizing Out-of-Distribution
Samples [19.311470287767385]
そこで本研究では,対象クラス外からのラベル付きサンプルの配布外サンプルを用いて,数発の学習を改善することを提案する。
提案手法は, 実装が簡単で, 特徴抽出器に非依存であり, 事前学習に要する追加コストを伴わず軽量であり, インダクティブ設定とトランスダクティブ設定の両方に適用可能である。
論文 参考訳(メタデータ) (2022-06-08T18:59:21Z) - Imbalanced Classification via a Tabular Translation GAN [4.864819846886142]
本稿では,多数のサンプルを対応する合成マイノリティ標本にマッピングするために,新たな正規化損失を用いたジェネレーティブ・アドバイサル・ネットワークに基づくモデルを提案する。
提案手法は, 再加重法やオーバーサンプリング法と比較して, 平均精度を向上することを示す。
論文 参考訳(メタデータ) (2022-04-19T06:02:53Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z) - Free Lunch for Few-shot Learning: Distribution Calibration [10.474018806591397]
キャリブレーション分布から抽出した特徴を用いて学習した単純なロジスティック回帰分類器は、2つのデータセットにおける最先端の精度より優れていることを示す。
論文 参考訳(メタデータ) (2021-01-16T07:58:40Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。