論文の概要: Label Propagation Adaptive Resonance Theory for Semi-supervised
Continuous Learning
- arxiv url: http://arxiv.org/abs/2005.02137v1
- Date: Thu, 16 Apr 2020 09:12:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:10:35.004798
- Title: Label Propagation Adaptive Resonance Theory for Semi-supervised
Continuous Learning
- Title(参考訳): 半教師付き連続学習のためのラベル伝搬適応共鳴理論
- Authors: Taehyeong Kim, Injune Hwang, Gi-Cheon Kang, Won-Seok Choi, Hyunseo
Kim, Byoung-Tak Zhang
- Abstract要約: 半教師付き連続学習のためのラベル伝搬適応共振理論(LPART)を提案する。
LPARTは、オンラインラベル伝搬機構を使用して分類を行い、観測データが蓄積されるにつれて、その精度を徐々に向上させる。
ラベル付きデータとラベルなしデータの両方を使用する場合、アキュラシーははるかに高く、ラベルが不足している環境ではLPARTの顕著なアドバンテージを示す。
- 参考スコア(独自算出の注目度): 27.62456471783627
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning and continuous learning are fundamental paradigms
for human-level intelligence. To deal with real-world problems where labels are
rarely given and the opportunity to access the same data is limited, it is
necessary to apply these two paradigms in a joined fashion. In this paper, we
propose Label Propagation Adaptive Resonance Theory (LPART) for semi-supervised
continuous learning. LPART uses an online label propagation mechanism to
perform classification and gradually improves its accuracy as the observed data
accumulates. We evaluated the proposed model on visual (MNIST, SVHN, CIFAR-10)
and audio (NSynth) datasets by adjusting the ratio of the labeled and unlabeled
data. The accuracies are much higher when both labeled and unlabeled data are
used, demonstrating the significant advantage of LPART in environments where
the data labels are scarce.
- Abstract(参考訳): 半教師付き学習と継続的学習は人間レベルの知能の基本的なパラダイムである。
ラベルがほとんど与えられず、同じデータにアクセスする機会が限られている現実世界の問題に対処するには、これら2つのパラダイムを連携して適用する必要がある。
本稿では,半教師付き連続学習のためのラベル伝搬適応共振理論(LPART)を提案する。
LPARTは、オンラインラベル伝搬機構を使用して分類を行い、観測データが蓄積されるにつれて、その精度を徐々に向上させる。
ラベル付きデータとラベルなしデータの比率を調整し,視覚モデル(MNIST,SVHN,CIFAR-10)と音声データセット(NSynth)を比較した。
ラベル付きデータとラベルなしデータの両方を使用する場合、アキュラシーははるかに高く、ラベルが不足している環境ではLPARTの顕著なアドバンテージを示す。
関連論文リスト
- Adaptive Integration of Partial Label Learning and Negative Learning for
Enhanced Noisy Label Learning [23.847160480176697]
我々はtextbfNPN というシンプルながら強力なアイデアを提案し,このアイデアは textbfNoisy ラベル学習に革命をもたらす。
我々はNLの全ての非候補ラベルを用いて信頼性の高い補完ラベルを生成し、間接的な監督を通じてモデルロバスト性を高める。
合成劣化データセットと実世界の雑音データセットの両方で実施された実験は、他のSOTA法と比較してNPNの優位性を示している。
論文 参考訳(メタデータ) (2023-12-15T03:06:19Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Dynamic Loss For Robust Learning [17.33444812274523]
本研究は,メタラーニングに基づく動的損失を学習プロセスで自動調整し,長い尾の雑音データから分類器を頑健に学習する手法を提案する。
本研究では,CIFAR-10/100,Animal-10N,ImageNet-LT,Webvisionなど,さまざまな種類のデータバイアスを持つ複数の実世界および合成データセットに対して,最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-11-22T01:48:25Z) - Is margin all you need? An extensive empirical study of active learning
on tabular data [66.18464006872345]
我々は,OpenML-CC18ベンチマークを用いて,69の実世界のデータセット上での各種能動学習アルゴリズムの性能を解析した。
意外なことに、古典的なマージンサンプリング技術は、現在の最先端技術を含む、他のすべてのものよりも優れている。
論文 参考訳(メタデータ) (2022-10-07T21:18:24Z) - Learning from Label Proportions by Learning with Label Noise [30.7933303912474]
ラベル比例(LLP)からの学習は、データポイントをバッグに分類する弱い教師付き分類問題である。
ラベル雑音による学習の低減に基づくLLPに対する理論的基礎的なアプローチを提案する。
このアプローチは、複数のデータセットやアーキテクチャにわたるディープラーニングシナリオにおける経験的パフォーマンスの向上を実証する。
論文 参考訳(メタデータ) (2022-03-04T18:52:21Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Analysis of label noise in graph-based semi-supervised learning [2.4366811507669124]
機械学習では、目に見えないデータに一般化できるモデルを監督するためにラベルを取得する必要がある。
多くの場合、私たちのデータのほとんどはラベル付けされていない。
半教師付き学習(SSL)は、ラベルと入力データ分布の関係について強い仮定をすることで緩和する。
論文 参考訳(メタデータ) (2020-09-27T22:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。