論文の概要: Meta-Learning Siamese Network for Few-Shot Text Classification
- arxiv url: http://arxiv.org/abs/2302.03507v1
- Date: Sun, 5 Feb 2023 07:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 16:06:06.766427
- Title: Meta-Learning Siamese Network for Few-Shot Text Classification
- Title(参考訳): Few-Shotテキスト分類のためのメタラーニングシームスネットワーク
- Authors: Chengcheng Han, Yuhe Wang, Yingnan Fu, Xiang Li, Minghui Qiu, Ming
Gao, and Aoying Zhou
- Abstract要約: テキスト分類におけるラベル不足の問題に対処するために、ほとんどショットラーニングが使われていない。
そこで我々はメタラーニング・シームズ・ネットワーク(Meta-SN)を提案し,これらの課題に対処する。
さらにMeta-SNは,メタタスク構築のための新しいサンプリング戦略を提案する。
- 参考スコア(独自算出の注目度): 33.20734319478503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning has been used to tackle the problem of label scarcity in
text classification, of which meta-learning based methods have shown to be
effective, such as the prototypical networks (PROTO). Despite the success of
PROTO, there still exist three main problems: (1) ignore the randomness of the
sampled support sets when computing prototype vectors; (2) disregard the
importance of labeled samples; (3) construct meta-tasks in a purely random
manner. In this paper, we propose a Meta-Learning Siamese Network, namely,
Meta-SN, to address these issues. Specifically, instead of computing prototype
vectors from the sampled support sets, Meta-SN utilizes external knowledge
(e.g. class names and descriptive texts) for class labels, which is encoded as
the low-dimensional embeddings of prototype vectors. In addition, Meta-SN
presents a novel sampling strategy for constructing meta-tasks, which gives
higher sampling probabilities to hard-to-classify samples. Extensive
experiments are conducted on six benchmark datasets to show the clear
superiority of Meta-SN over other state-of-the-art models. For reproducibility,
all the datasets and codes are provided at https://github.com/hccngu/Meta-SN.
- Abstract(参考訳): テキスト分類におけるラベルの不足という問題に対処するために、わずかなショット学習が使われており、どのメタラーニングベースの手法が有効であるか、例えばproto(proto)が示されている。
PROTO の成功にもかかわらず,(1) プロトタイプベクトルの計算におけるサンプルサポートセットのランダム性を無視し,(2) ラベル付きサンプルの重要性を無視し,(3) メタタスクを純粋にランダムに構築する,という3つの問題が存在する。
本稿では,これらの問題に対処するために,メタラーニング・シャムネットワークであるmeta-snを提案する。
具体的には、サンプル化されたサポートセットからプロトタイプベクトルを計算する代わりに、Meta-SNは、プロトタイプベクトルの低次元埋め込みとして符号化されたクラスラベルの外部知識(クラス名や記述テキストなど)を利用する。
さらに、meta-snはメタタスクを構築するための新しいサンプリング戦略を提示している。
他の最先端モデルよりもMeta-SNの明確な優位性を示すため、6つのベンチマークデータセットで大規模な実験が行われた。
再現性のために、すべてのデータセットとコードはhttps://github.com/hccngu/Meta-SNで提供されている。
関連論文リスト
- Meta-UAD: A Meta-Learning Scheme for User-level Network Traffic Anomaly Detection [15.038762892493219]
ユーザレベルのネットワークトラフィック異常検出のためのメタラーニング手法である textitMeta-UAD を提案する。
我々はCICFlowMeterを使って81のフローレベルの統計的特徴を抽出し、いくつかの無効な特徴を取り除く。
既存のモデルと比較すると,Meta-UADはF1スコアで15%から43%向上した。
論文 参考訳(メタデータ) (2024-08-30T06:05:15Z) - Context-Aware Meta-Learning [52.09326317432577]
本研究では,大規模言語モデルのエミュレートを行うメタ学習アルゴリズムを提案する。
我々のアプローチは、11のメタラーニングベンチマークのうち8つで最先端のアルゴリズムであるP>M>Fを上回り、一致します。
論文 参考訳(メタデータ) (2023-10-17T03:35:27Z) - Unsupervised Meta-Learning via Few-shot Pseudo-supervised Contrastive
Learning [72.3506897990639]
本稿では,Pseudo-supervised Contrast (PsCo) という,シンプルだが効果的なメタ学習フレームワークを提案する。
PsCoは、さまざまなドメイン内およびクロスドメインのいくつかのショット分類ベンチマークの下で、既存の教師なしメタラーニングメソッドより優れています。
論文 参考訳(メタデータ) (2023-03-02T06:10:13Z) - Meta-Learning Triplet Network with Adaptive Margins for Few-Shot Named
Entity Recognition [12.293870238008354]
本稿では,Oクラスではなく,エンティティ型のプロトタイプベクトルを生成するMeTNetを提案する。
我々は、有名なeコマースプラットフォームから抽出された中国の数発のNERデータセットFEW-COMMをリリースする。
論文 参考訳(メタデータ) (2023-02-14T15:10:26Z) - Large-Scale Pre-training for Person Re-identification with Noisy Labels [125.49696935852634]
雑音ラベル(PNL)を利用した大規模事前学習フレームワークを開発した。
原則として、これらの3つのモジュールの合同学習は、1つのプロトタイプに類似したクラスタの例だけでなく、プロトタイプの割り当てに基づいてノイズラベルを修正します。
このシンプルな事前学習タスクは、ベルやwhiを使わずに"LUPerson-NL"でSOTA Re-ID表現をスクラッチから学習するスケーラブルな方法を提供する。
論文 参考訳(メタデータ) (2022-03-30T17:59:58Z) - PLATINUM: Semi-Supervised Model Agnostic Meta-Learning using Submodular
Mutual Information [3.1845305066053347]
FSC (Few-shot Classification) は、クラスごとに少数の(通常1から5までの)データポイントを使用するトレーニングモデルを必要とする。
サブモジュール相互情報(SMI)関数を用いてFSCの性能を向上する半教師付きモデル非依存メタラーニングフレームワークPLATINUMを提案する。
論文 参考訳(メタデータ) (2022-01-30T22:07:17Z) - MetaInfoNet: Learning Task-Guided Information for Sample Reweighting [33.879517179662066]
ディープニューラルネットワークは、ラベルノイズやクラス不均衡を伴うバイアストレーニングデータに容易に適合することが示されています。
本稿では,メタ重み付けネットワークの入力として有効な表現を自動的に学習するメタ情報ネットを提案する。
論文 参考訳(メタデータ) (2020-12-09T19:21:20Z) - Meta-Learning with Context-Agnostic Initialisations [86.47040878540139]
メタ学習プロセスにコンテキスト・逆成分を導入する。
これにより、コンテキストに依存しないタスクを一般化したターゲットへの微調整の初期化が実現される。
我々は,3つのメタ学習アルゴリズムと2つの問題に対するアプローチを評価した。
論文 参考訳(メタデータ) (2020-07-29T08:08:38Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z) - Minimally Supervised Categorization of Text with Metadata [40.13841133991089]
メタデータでテキストを分類する最小限のフレームワークであるMetaCatを提案する。
我々は,単語,文書,ラベル,メタデータ間の関係を記述した生成プロセスを開発する。
同じ生成過程に基づいて,ラベル不足のボトルネックに対処するため,トレーニングサンプルを合成する。
論文 参考訳(メタデータ) (2020-05-01T21:42:32Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。