論文の概要: Self-Training: A Survey
- arxiv url: http://arxiv.org/abs/2202.12040v1
- Date: Thu, 24 Feb 2022 11:40:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 17:25:27.029399
- Title: Self-Training: A Survey
- Title(参考訳): セルフトレーニング:調査
- Authors: Massih-Reza Amini, Vasilii Feofanov, Loic Pauletto, Emilie Devijver,
Yury Maximov
- Abstract要約: 自己学習アルゴリズムは、データ分布に余分な仮定を加えることなく、低密度領域における決定境界を探索するように設計されている。
本稿では,最近ニューラルネットワークを用いて開発された二項分類と多項分類の自己学習手法とその変種について述べる。
- 参考スコア(独自算出の注目度): 12.730778556149888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, semi-supervised algorithms have received a lot of interest
in both academia and industry. Among the existing techniques, self-training
methods have arguably received more attention in the last few years. These
models are designed to search the decision boundary on low density regions
without making extra assumptions on the data distribution, and use the unsigned
output score of a learned classifier, or its margin, as an indicator of
confidence. The working principle of self-training algorithms is to learn a
classifier iteratively by assigning pseudo-labels to the set of unlabeled
training samples with a margin greater than a certain threshold. The
pseudo-labeled examples are then used to enrich the labeled training data and
train a new classifier in conjunction with the labeled training set. We present
self-training methods for binary and multiclass classification and their
variants which were recently developed using Neural Networks. Finally, we
discuss our ideas for future research in self-training. To the best of our
knowledge, this is the first thorough and complete survey on this subject.
- Abstract(参考訳): 近年、半教師付きアルゴリズムは学術と産業の両方に大きな関心を集めている。
既存の技術の中では、ここ数年で自己学習の手法に注目が集まっている。
これらのモデルは、データ分布に余分な仮定を加えることなく、低密度領域における決定境界を探索し、学習した分類器の符号なし出力スコアまたはそのマージンを信頼の指標として使用するように設計されている。
自己学習アルゴリズムの動作原理は、ある閾値より大きいラベル付きトレーニングサンプルの集合に擬似ラベルを割り当てることで、分類器を反復的に学習することである。
次に、擬似ラベル付きサンプルを使用してラベル付きトレーニングデータを強化し、ラベル付きトレーニングセットと合わせて新しい分類器をトレーニングする。
本稿では,近年ニューラルネットワークを用いて開発されたバイナリクラスとマルチクラス分類の自己学習手法と,その変種について述べる。
最後に,今後の自己学習研究の考え方について述べる。
私たちの知る限りでは、この問題に関する完全な調査はこれが初めてです。
関連論文リスト
- Enhancing Hyperspectral Image Prediction with Contrastive Learning in Low-Label Regime [0.810304644344495]
自己教師付きコントラスト学習は、限られたラベル付きデータの課題に対処するための効果的なアプローチである。
単一ラベルと複数ラベルの分類タスクに対して,本手法の性能を評価する。
論文 参考訳(メタデータ) (2024-10-10T10:20:16Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Combining Self-labeling with Selective Sampling [2.0305676256390934]
この研究は、選択的サンプリングシナリオにおける自己ラベル技術とアクティブラーニングを組み合わせたものである。
選択したクラスに対してバイアスを課すことにより,自己ラベルの適用がパフォーマンスに悪影響を及ぼすことを示す。
提案手法は,現在の選択的サンプリング手法と一致し,より良い結果が得られる。
論文 参考訳(メタデータ) (2023-01-11T11:58:45Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Towards Cross-Granularity Few-Shot Learning: Coarse-to-Fine
Pseudo-Labeling with Visual-Semantic Meta-Embedding [13.063136901934865]
少ないショットラーニングは、テスト時に少数のサンプルしか持たない、新しいカテゴリに迅速に適応することを目的としている。
本稿では,より困難なシナリオ,すなわちクロスグラニュラリティ・グラニュラリティ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラ
画像埋め込みの類似性に応じて,各粗いクラスを擬似微細クラスにグリーディクラスタリングすることで,詳細なデータ分布を近似する。
論文 参考訳(メタデータ) (2020-07-11T03:44:21Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Statistical and Algorithmic Insights for Semi-supervised Learning with
Self-training [30.866440916522826]
自己学習は、半教師あり学習における古典的なアプローチである。
自己学習の繰り返しは、たとえ最適でない固定点に留まったとしても、モデル精度を良好に向上することを示す。
次に、自己学習に基づく半スーパービジョンと、異種データによる学習のより一般的な問題との関連性を確立する。
論文 参考訳(メタデータ) (2020-06-19T08:09:07Z) - Automatically Discovering and Learning New Visual Categories with
Ranking Statistics [145.89790963544314]
我々は,他のクラスをラベル付けした画像コレクションにおいて,新しいクラスを発見する問題に対処する。
汎用クラスタリングモデルを学び、後者を用いて、非競合データ中の新しいクラスを識別する。
我々は,標準分類ベンチマークに対するアプローチと,新しいカテゴリー発見法の性能を,有意なマージンで評価した。
論文 参考訳(メタデータ) (2020-02-13T18:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。