論文の概要: Relieving the Plateau: Active Semi-Supervised Learning for a Better
Landscape
- arxiv url: http://arxiv.org/abs/2104.03525v1
- Date: Thu, 8 Apr 2021 06:03:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:19:02.368098
- Title: Relieving the Plateau: Active Semi-Supervised Learning for a Better
Landscape
- Title(参考訳): 高原の復興: 景観改善のための半監督型アクティブラーニング
- Authors: Seo Taek Kong, Soomin Jeon, Jaewon Lee, Hongseok Lee, Kyu-Hwan Jung
- Abstract要約: semi-supervised learning (ssl) はラベル付きデータよりもアクセスしやすいラベルなしデータを活用する。
active learning (al)は、ラベルなしのインスタンスを選択して、ラベル付きデータの少ないパフォーマンスを期待する。
本稿では,ラベル付き集合を含む問題条件を改善するためにラベル付きデータを選択するALアルゴリズムである収束率制御(CRC)を提案する。
- 参考スコア(独自算出の注目度): 2.3046646540823916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) relies on massive amounts of labeled data, and improving
its labeled sample-efficiency remains one of the most important problems since
its advent. Semi-supervised learning (SSL) leverages unlabeled data that are
more accessible than their labeled counterparts. Active learning (AL) selects
unlabeled instances to be annotated by a human-in-the-loop in hopes of better
performance with less labeled data. Given the accessible pool of unlabeled data
in pool-based AL, it seems natural to use SSL when training and AL to update
the labeled set; however, algorithms designed for their combination remain
limited. In this work, we first prove that convergence of gradient descent on
sufficiently wide ReLU networks can be expressed in terms of their Gram matrix'
eigen-spectrum. Equipped with a few theoretical insights, we propose
convergence rate control (CRC), an AL algorithm that selects unlabeled data to
improve the problem conditioning upon inclusion to the labeled set, by
formulating an acquisition step in terms of improving training dynamics.
Extensive experiments show that SSL algorithms coupled with CRC can achieve
high performance using very few labeled data.
- Abstract(参考訳): 深層学習(DL)は大量のラベル付きデータに依存しており、ラベル付きサンプル効率を改善することは、その出現以来最も重要な問題である。
semi-supervised learning (ssl) はラベル付きデータよりもアクセスしやすいラベルなしデータを活用する。
active learning (al)は、ラベルなしのインスタンスを選択して、ラベル付きデータの少ないパフォーマンスを期待する。
プールベースのALでラベル付きデータのプールが利用可能であることを考えると、トレーニング時にSSLを、ラベル付きセットを更新するためにALを使用するのは当然である。
本研究では,十分に広いReLUネットワーク上での勾配勾配の収束が,グラム行列の固有スペクトルを用いて表現できることを最初に証明する。
いくつかの理論的知見を取り入れたALアルゴリズムである収束率制御(CRC)を提案する。このアルゴリズムは、学習力学の改善の観点から取得ステップを定式化し、ラベル付き集合に含めることにより問題条件を改善する。
CRCと組み合わせたSSLアルゴリズムは,ラベル付きデータが少ないため,高いパフォーマンスを実現することができる。
関連論文リスト
- Learning Label Refinement and Threshold Adjustment for Imbalanced Semi-Supervised Learning [6.904448748214652]
半教師付き学習アルゴリズムは、不均衡なトレーニングデータに晒された場合、うまく機能しない。
Validation Data(SEVAL)に基づく擬似ラベル最適化によるセミ教師あり学習について紹介する。
SEVALは、擬似ラベルの精度を改善して特定のタスクに適応し、クラスごとに擬似ラベルの正確性を保証する。
論文 参考訳(メタデータ) (2024-07-07T13:46:22Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Active Semi-Supervised Learning by Exploring Per-Sample Uncertainty and
Consistency [30.94964727745347]
そこで我々は,ASSL(Active Semi-supervised Learning)と呼ばれる手法を提案し,低コストでモデルの精度を向上させる。
ASSLには、ラベルなしデータの使用により、アクティブラーニング(AL)よりもダイナミックなモデル更新が含まれている。
ASSLは同じ性能を保ちながら、半教師あり学習(SSL)の約5.3倍の計算効率を達成した。
論文 参考訳(メタデータ) (2023-03-15T22:58:23Z) - Contrastive Credibility Propagation for Reliable Semi-Supervised Learning [6.014538614447467]
逐次的擬似ラベルリファインメントによる深部SSLのためのコントラストCCP(Contrastive Credibility Propagation)を提案する。
CCPは、教師付きベースラインをデータシナリオで確実に上回るために、半教師付き学習とノイズの多いラベル学習を統一する。
論文 参考訳(メタデータ) (2022-11-17T23:01:47Z) - Collaborative Intelligence Orchestration: Inconsistency-Based Fusion of
Semi-Supervised Learning and Active Learning [60.26659373318915]
アクティブラーニング(AL)と半教師付きラーニング(SSL)は2つの効果があるが、しばしば孤立している。
本稿では、SSL-ALの潜在的な優位性をさらに調査するために、革新的な一貫性に基づく仮想aDvErialアルゴリズムを提案する。
2つの実世界のケーススタディは、提案したデータサンプリングアルゴリズムの適用と展開の実践的な産業価値を可視化する。
論文 参考訳(メタデータ) (2022-06-07T13:28:43Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。