論文の概要: Webly Supervised Image Classification with Self-Contained Confidence
- arxiv url: http://arxiv.org/abs/2008.11894v1
- Date: Thu, 27 Aug 2020 02:49:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 07:52:47.179747
- Title: Webly Supervised Image Classification with Self-Contained Confidence
- Title(参考訳): 自己完結型信頼度を有するwebly教師付き画像分類
- Authors: Jingkang Yang, Litong Feng, Weirong Chen, Xiaopeng Yan, Huabin Zheng,
Ping Luo, Wayne Zhang
- Abstract要約: 本稿では,インターネットからサンプルをクロールし,検索クエリをWebラベルとして直接使用することにより,データセットを構築するウェブ教師あり学習(WSL)に焦点を当てる。
我々は、WSL設定にモデル不確実性を適用して自己完結信頼(SCC)を導入し、それをサンプル的に$mathcalL_s$と$mathcalL_w$のバランスをとるために使用します。
提案されたWSLフレームワークは、WebVision-1000とFood101-N. Codeの2つの大規模WSLデータセットに対して、最先端の結果を得た。
- 参考スコア(独自算出の注目度): 36.87209906372911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on webly supervised learning (WSL), where datasets are
built by crawling samples from the Internet and directly using search queries
as web labels. Although WSL benefits from fast and low-cost data collection,
noises in web labels hinder better performance of the image classification
model. To alleviate this problem, in recent works, self-label supervised loss
$\mathcal{L}_s$ is utilized together with webly supervised loss
$\mathcal{L}_w$. $\mathcal{L}_s$ relies on pseudo labels predicted by the model
itself. Since the correctness of the web label or pseudo label is usually on a
case-by-case basis for each web sample, it is desirable to adjust the balance
between $\mathcal{L}_s$ and $\mathcal{L}_w$ on sample level. Inspired by the
ability of Deep Neural Networks (DNNs) in confidence prediction, we introduce
Self-Contained Confidence (SCC) by adapting model uncertainty for WSL setting,
and use it to sample-wisely balance $\mathcal{L}_s$ and $\mathcal{L}_w$.
Therefore, a simple yet effective WSL framework is proposed. A series of
SCC-friendly regularization approaches are investigated, among which the
proposed graph-enhanced mixup is the most effective method to provide
high-quality confidence to enhance our framework. The proposed WSL framework
has achieved the state-of-the-art results on two large-scale WSL datasets,
WebVision-1000 and Food101-N. Code is available at
https://github.com/bigvideoresearch/SCC.
- Abstract(参考訳): 本稿では,インターネットからサンプルをクロールし,検索クエリをWebラベルとして直接使用することにより,データセットを構築するウェブ教師あり学習(WSL)に焦点を当てる。
WSLは高速で低コストなデータ収集の恩恵を受けるが、Webラベルのノイズは画像分類モデルの性能を損なう。
この問題を軽減するため、近年の研究では、自己ラベル教師付き損失$\mathcal{l}_s$とwebly教師付き損失$\mathcal{l}_w$が併用されている。
$\mathcal{L}_s$はモデル自身によって予測される擬似ラベルに依存する。
webラベルまたは擬似ラベルの正しさは、通常、各webサンプルのケースバイケースベースであるため、サンプルレベルで$\mathcal{l}_s$と$\mathcal{l}_w$のバランスを調整することが望ましい。
信頼度予測におけるディープニューラルネットワーク(DNN)の能力に着想を得て,WSL設定にモデル不確実性を適用して自己完結信頼(SCC)を導入し,それをサンプルバランスとして$\mathcal{L}_s$および$\mathcal{L}_w$とする。
したがって、シンプルで効果的なWSLフレームワークが提案されている。
一連のSCCフレンドリーな正規化手法について検討し、提案したグラフ強化ミキサップは、我々のフレームワークを強化するための高品質な信頼性を提供する最も効果的な方法である。
提案されたWSLフレームワークは、WebVision-1000とFood101-Nの2つの大規模WSLデータセットに対して、最先端の結果を得た。
コードはhttps://github.com/bigvideoresearch/sccで入手できる。
関連論文リスト
- RankMatch: A Novel Approach to Semi-Supervised Label Distribution
Learning Leveraging Inter-label Correlations [52.549807652527306]
本稿では,SSLDL (Semi-Supervised Label Distribution Learning) の革新的なアプローチである RankMatch を紹介する。
RankMatchは、ラベルのない大量のデータとともに、少数のラベル付き例を効果的に活用する。
我々はRandMatchに縛られる理論的な一般化を確立し、広範な実験を通じて既存のSSLDL法に対する性能上の優位性を実証した。
論文 参考訳(メタデータ) (2023-12-11T12:47:29Z) - ProtoCon: Pseudo-label Refinement via Online Clustering and Prototypical
Consistency for Efficient Semi-supervised Learning [60.57998388590556]
ProtoConは信頼性に基づく疑似ラベル作成の新しい手法である。
ProtoConのオンライン版では、データセット全体のラベル履歴を1回のトレーニングサイクルで活用することができる。
最先端のデータセットよりも大幅に向上し、より高速に収束する。
論文 参考訳(メタデータ) (2023-03-22T23:51:54Z) - Data-Centric Debugging: mitigating model failures via targeted data
collection [4.599792546344752]
トレーニングセットがデプロイされているすべての設定を適切にカバーしていない場合、ディープニューラルネットワークは、現実世界では信頼性が低い可能性がある。
本稿では,従来のテストセットの性能を維持しつつ,$mathcalE$のモデル性能を体系的に改善できるモデルデバッグの一般的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-17T19:44:02Z) - Self Supervised Learning for Few Shot Hyperspectral Image Classification [57.2348804884321]
HSI分類に自己監督学習(SSL)を活用することを提案する。
最先端のSSLアルゴリズムであるBarlow-Twinsを用いて,ラベルのない画素にエンコーダを事前学習することにより,少数のラベルを持つ正確なモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-06-24T07:21:53Z) - Deep Low-Density Separation for Semi-Supervised Classification [0.0]
組込み機能に低密度分離を適用した新しいハイブリッド手法を提案する。
本手法は,比較的少数の手作業分類例から,何千人もの未ラベルユーザを効果的に分類する。
論文 参考訳(メタデータ) (2022-05-22T11:00:55Z) - CLS: Cross Labeling Supervision for Semi-Supervised Learning [9.929229055862491]
Cross Labeling Supervision (CLS) は、典型的な擬似ラベル処理を一般化するフレームワークである。
CLSは擬似ラベルと相補ラベルの両方を作成でき、正と負の両方の学習をサポートする。
論文 参考訳(メタデータ) (2022-02-17T08:09:40Z) - Matching Distributions via Optimal Transport for Semi-Supervised
Learning [31.533832244923843]
SSL(Semi-Supervised Learning)アプローチは、ラベルのないデータを使用する上で、影響力のあるフレームワークである。
本稿では、離散的経験的確率測度間の類似性の指標として最適輸送(OT)手法を採用する新しい手法を提案する。
提案手法を標準データセット上で,最先端のSSLアルゴリズムを用いて評価し,SSLアルゴリズムの優位性と有効性を示す。
論文 参考訳(メタデータ) (2020-12-04T11:15:14Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z) - FixMatch: Simplifying Semi-Supervised Learning with Consistency and
Confidence [93.91751021370638]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルの性能を向上させる効果的な手段を提供する。
本稿では、整合正則化と擬似ラベル付けという2つの共通SSL手法の単純な組み合わせのパワーを実証する。
筆者らのアルゴリズムであるFixMatchは、まず、弱拡張未ラベル画像上のモデルの予測を用いて擬似ラベルを生成する。
論文 参考訳(メタデータ) (2020-01-21T18:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。