論文の概要: SAT: Improving Semi-Supervised Text Classification with Simple
Instance-Adaptive Self-Training
- arxiv url: http://arxiv.org/abs/2210.12653v1
- Date: Sun, 23 Oct 2022 08:19:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 14:13:02.005152
- Title: SAT: Improving Semi-Supervised Text Classification with Simple
Instance-Adaptive Self-Training
- Title(参考訳): SAT: 簡単なインスタンス適応型自己学習による半教師付きテキスト分類の改善
- Authors: Hui Chen, Wei Han, Soujanya Poria
- Abstract要約: 本研究は、半教師付きテキスト分類のための簡易なインスタンス適応自己学習法(SAT)を提案する。
SATはまず、ラベルのない各データに対して2つの拡張ビューを生成し、次にメタラーナーを訓練して、拡張の相対的な強度を自動的に識別する。
- 参考スコア(独自算出の注目度): 19.879452265836917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-training methods have been explored in recent years and have exhibited
great performance in improving semi-supervised learning. This work presents a
Simple instance-Adaptive self-Training method (SAT) for semi-supervised text
classification. SAT first generates two augmented views for each unlabeled data
and then trains a meta-learner to automatically identify the relative strength
of augmentations based on the similarity between the original view and the
augmented views. The weakly-augmented view is fed to the model to produce a
pseudo-label and the strongly-augmented view is used to train the model to
predict the same pseudo-label. We conducted extensive experiments and analyses
on three text classification datasets and found that with varying sizes of
labeled training data, SAT consistently shows competitive performance compared
to existing semi-supervised learning methods. Our code can be found at
\url{https://github.com/declare-lab/SAT.git}.
- Abstract(参考訳): 近年,自己学習法が研究され,半教師あり学習の改善に優れた成果を上げている。
本稿では,半教師付きテキスト分類のための単純なインスタンス適応型自己学習法(sat)を提案する。
satはまずラベルのないデータに対して2つの拡張ビューを生成し、その後メタリーナーを訓練して、元のビューと拡張ビューの類似性に基づいて拡張の相対的な強度を自動的に識別する。
弱暗視ビューは擬似ラベルを生成するためにモデルに供給され、強暗視ビューはモデルを訓練して同じ擬似ラベルを予測するために使用される。
筆者らは3つのテキスト分類データセットの広範な実験と分析を行い、ラベル付きトレーニングデータのサイズが変化すると、SATは既存の半教師付き学習法と比較して一貫して競争性能を示すことを示した。
我々のコードは \url{https://github.com/declare-lab/SAT.git} にある。
関連論文リスト
- Adapting Vision-Language Models to Open Classes via Test-Time Prompt Tuning [50.26965628047682]
学習済みのモデルをオープンクラスに適応させることは、機械学習において難しい問題である。
本稿では,両者の利点を組み合わせたテスト時プロンプトチューニング手法を提案する。
提案手法は,基本クラスと新クラスの両方を考慮し,すべての比較手法を平均的に上回る結果を得た。
論文 参考訳(メタデータ) (2024-08-29T12:34:01Z) - Self-Training for Sample-Efficient Active Learning for Text Classification with Pre-Trained Language Models [3.546617486894182]
我々は,4つのテキスト分類ベンチマークで評価した,新しい効果的な自己学習戦略であるHASTを紹介する。
その結果、4つのデータセットのうち3つに対して、再現された自己学習手法よりも優れており、以前の実験に匹敵する分類結果が得られることがわかった。
論文 参考訳(メタデータ) (2024-06-13T15:06:11Z) - Meta Co-Training: Two Views are Better than One [4.050257210426548]
本稿では,Meta Pseudo Labelsアプローチを2つの視点に拡張したMeta Co-Trainingを提案する。
提案手法は,ImageNet-10%のトレーニングリソースをほとんど必要とせずに,新たな最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-29T21:11:58Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - M-Tuning: Prompt Tuning with Mitigated Label Bias in Open-Set Scenarios [103.6153593636399]
緩和ラベルバイアス(M-Tuning)を用いた視覚言語プロンプトチューニング手法を提案する。
これはWordNetからのオープンワードを導入し、クローズドセットラベルワードのみからもっと多くのプロンプトテキストを形成する単語の範囲を広げ、シミュレートされたオープンセットシナリオでプロンプトをチューニングする。
提案手法は,様々なスケールのデータセット上で最高の性能を達成し,広範囲にわたるアブレーション研究もその有効性を検証した。
論文 参考訳(メタデータ) (2023-03-09T09:05:47Z) - Dense FixMatch: a simple semi-supervised learning method for pixel-wise
prediction tasks [68.36996813591425]
Dense FixMatchは,高密度かつ構造化された予測タスクのオンライン半教師付き学習のための簡易な手法である。
我々は、擬似ラベルにマッチング操作を追加することにより、画像分類を超えた半教師付き学習問題にFixMatchの適用を可能にする。
Dense FixMatchは、ラベル付きデータのみを使用して教師付き学習と比較すると、結果を著しく改善し、ラベル付きサンプルの1/4でそのパフォーマンスに近づいた。
論文 参考訳(メタデータ) (2022-10-18T15:02:51Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - Semi-Supervised Learning of Semantic Correspondence with Pseudo-Labels [26.542718087103665]
SemiMatchは意味論的に類似した画像間の密接な対応を確立するための半教師付きソリューションである。
筆者らのフレームワークは,ソースと弱増強ターゲット間のモデル予測自体を用いて擬似ラベルを生成し,擬似ラベルを用いてソースと強増強ターゲット間のモデルの再学習を行う。
実験では、SemiMatchは様々なベンチマーク、特にPF-Willowにおける最先端のパフォーマンスを大きなマージンで達成している。
論文 参考訳(メタデータ) (2022-03-30T03:52:50Z) - SimMatch: Semi-supervised Learning with Similarity Matching [43.61802702362675]
SimMatchは、意味的類似性とインスタンス類似性を考慮した、新しい半教師付き学習フレームワークである。
400エポックのトレーニングで、SimMatchは67.2%、Top-1の正確度は74.4%で、ImageNetでは1%と10%のラベルが付けられている。
論文 参考訳(メタデータ) (2022-03-14T08:08:48Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Semi-supervised dictionary learning with graph regularization and active
points [0.19947949439280027]
2つの柱に基づく辞書学習手法を提案する。
一方、元のデータから局所線形埋め込みを用いたスパース符号空間に多様体構造保存を強制する。
一方、スパース符号空間における半教師付き分類器を訓練する。
論文 参考訳(メタデータ) (2020-09-13T09:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。