論文の概要: Dual Contrastive Learning: Text Classification via Label-Aware Data
Augmentation
- arxiv url: http://arxiv.org/abs/2201.08702v1
- Date: Fri, 21 Jan 2022 13:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 13:08:12.470615
- Title: Dual Contrastive Learning: Text Classification via Label-Aware Data
Augmentation
- Title(参考訳): Dual Contrastive Learning: Label-Aware Data Augmentationによるテキスト分類
- Authors: Qianben Chen, Richong Zhang, Yaowei Zheng, Yongyi Mao
- Abstract要約: 入力サンプルの特徴と同一空間における分類器のパラメータを同時に学習する2つのコントラスト学習フレームワークを提案する。
具体的には、DualCLは、分類器のパラメータを、異なるラベルに関連付けられた強化サンプルとみなし、入力サンプルと強化サンプルとの対比学習を利用する。
5つのベンチマークテキスト分類データセットに関する実証的研究は、分類精度の向上を示し、DualCLの識別表現を学習する能力を確認する。
- 参考スコア(独自算出の注目度): 38.61781713469419
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning has achieved remarkable success in representation
learning via self-supervision in unsupervised settings. However, effectively
adapting contrastive learning to supervised learning tasks remains as a
challenge in practice. In this work, we introduce a dual contrastive learning
(DualCL) framework that simultaneously learns the features of input samples and
the parameters of classifiers in the same space. Specifically, DualCL regards
the parameters of the classifiers as augmented samples associating to different
labels and then exploits the contrastive learning between the input samples and
the augmented samples. Empirical studies on five benchmark text classification
datasets and their low-resource version demonstrate the improvement in
classification accuracy and confirm the capability of learning discriminative
representations of DualCL.
- Abstract(参考訳): コントラスト学習は,教師なし設定における自己スーパービジョンによる表現学習において顕著な成功を収めている。
しかし,コントラスト学習を教師付き学習タスクに効果的に適用することが課題として残されている。
本研究では,入力サンプルの特徴と同一空間における分類器のパラメータを同時に学習する双対コントラスト学習(dualcl)フレームワークを提案する。
具体的には、DualCLは、分類器のパラメータを異なるラベルに関連付けられた強化サンプルとみなし、入力サンプルと強化サンプルとの対比学習を利用する。
5つのベンチマークテキスト分類データセットとその低リソースバージョンに関する実証的研究は、分類精度の改善を示し、DualCLの識別表現を学習する能力を確認する。
関連論文リスト
- Logit Separability-Driven Samples and Multiple Class-Related Words Selection for Advancing In-Context Learning [0.0]
本稿では,ロジットレベルのサンプルとクラス関連単語の明瞭度を評価するための基準であるロジット分離性を導入する。
各サンプルに複数のクラス関連語を組み込むことで,より広い範囲のラベル情報を提供することで,性能の向上が期待できる。
サンプルを共同で整理し,複数のクラス関連単語を各サンプルラベルペアに統合する,ロジット分離性に基づくlicLを提案する。
論文 参考訳(メタデータ) (2024-06-16T12:11:46Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Cluster-aware Contrastive Learning for Unsupervised Out-of-distribution
Detection [0.0]
教師なしアウト・オブ・ディストリビューション(OOD)検出は、ラベル情報なしでトレーニングデータの分布外に落下するサンプルを分離することを目的としている。
本稿では,インスタンスレベルの情報と意味レベルの情報の両方を考慮した,教師なしOOD検出のためのクラスタ対応コントラスト学習(CCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-06T07:21:03Z) - Non-Contrastive Learning Meets Language-Image Pre-Training [145.6671909437841]
非コントラスト型言語画像事前学習(nCLIP)の有効性について検討する。
我々は、CLIPとnCLIPを組み合わせたマルチタスクフレームワークであるxCLIPを紹介し、nCLIPが機能セマンティクスの強化にCLIPを支援することを示す。
論文 参考訳(メタデータ) (2022-10-17T17:57:46Z) - Adaptive Soft Contrastive Learning [19.45520684918576]
本稿では,適応型ソフトコントラスト学習(ASCL)という,サンプル間のソフトな関係を導入する適応手法を提案する。
既存の自己教師付き学習フレームワークのための効果的で簡潔なプラグインモジュールとして、ASCLはいくつかのベンチマークで最高のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2022-07-22T16:01:07Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - CLLD: Contrastive Learning with Label Distance for Text Classificatioin [0.6299766708197883]
コントラストクラスを学習するためのCLLD(Contrastive Learning with Label Distance)を提案する。
CLLDは、ラベルの割り当てに繋がる微妙な違いの中で、柔軟性を保証する。
実験の結果,学習したラベル距離は,クラス間の対立性を緩和することが示唆された。
論文 参考訳(メタデータ) (2021-10-25T07:07:14Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Visual Transformer for Task-aware Active Learning [49.903358393660724]
プールベースのアクティブラーニングのための新しいパイプラインを提案する。
提案手法は,学習中に使用可能なアンラベリング例を利用して,ラベル付き例との相関関係を推定する。
ビジュアルトランスフォーマーは、ラベル付き例と非ラベル付き例の間の非ローカルビジュアル概念依存性をモデル化する。
論文 参考訳(メタデータ) (2021-06-07T17:13:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。