論文の概要: Exploiting Web Images for Fine-Grained Visual Recognition by Eliminating
Noisy Samples and Utilizing Hard Ones
- arxiv url: http://arxiv.org/abs/2101.09412v1
- Date: Sat, 23 Jan 2021 03:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 10:42:16.403097
- Title: Exploiting Web Images for Fine-Grained Visual Recognition by Eliminating
Noisy Samples and Utilizing Hard Ones
- Title(参考訳): ノイズサンプルの除去とハード画像の活用による細粒度画像認識へのweb画像の活用
- Authors: Huafeng Liu, Chuanyi Zhang, Yazhou Yao, Xiushen Wei, Fumin Shen, Jian
Zhang, and Zhenmin Tang
- Abstract要約: トレーニング中に実世界のWeb画像から無関係なサンプルを除去するための新しいアプローチを提案します。
私達のアプローチはよりよい性能を達成するために無関係な騒々しいWebイメージおよび堅い例の有害な影響を緩和できます。
- 参考スコア(独自算出の注目度): 60.07027312916081
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Labeling objects at a subordinate level typically requires expert knowledge,
which is not always available when using random annotators. As such, learning
directly from web images for fine-grained recognition has attracted broad
attention. However, the presence of label noise and hard examples in web images
are two obstacles for training robust fine-grained recognition models.
Therefore, in this paper, we propose a novel approach for removing irrelevant
samples from real-world web images during training, while employing useful hard
examples to update the network. Thus, our approach can alleviate the harmful
effects of irrelevant noisy web images and hard examples to achieve better
performance. Extensive experiments on three commonly used fine-grained datasets
demonstrate that our approach is far superior to current state-of-the-art
web-supervised methods.
- Abstract(参考訳): 下位レベルにおけるオブジェクトのラベル付けは通常、専門家の知識を必要とする。
これにより,Web画像から直接の微粒化認識の学習が注目されている。
しかしながら,web画像におけるラベルノイズとハードサンプルの存在は,ロバストな細粒度認識モデルのトレーニングにおける2つの障害である。
そこで本稿では,実世界のweb画像から無関係なサンプルをトレーニング中に削除する手法を提案する。
したがって,提案手法は,無関係な web 画像やハードサンプルの有害な効果を軽減し,良好な性能を実現することができる。
3つの一般的なきめ細かなデータセットに関する広範囲な実験は、我々のアプローチが現在の最先端のweb教師付きメソッドよりはるかに優れていることを示している。
関連論文リスト
- CAPro: Webly Supervised Learning with Cross-Modality Aligned Prototypes [93.71909293023663]
クロスモダリティ・アライテッド・プロトタイプ(CAPro)は、視覚表現を正しい意味論で学習する統合コントラスト学習フレームワークである。
CAProは、新しい最先端のパフォーマンスを実現し、オープンセット認識に対する堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-15T07:20:22Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Leveraging Self-Supervision for Cross-Domain Crowd Counting [71.75102529797549]
混雑したシーンで人をカウントするための最先端の方法は、群衆密度を推定するために深いネットワークに依存します。
われわれのネットワークは、通常の画像から逆さまの実際の画像を認識できるように訓練し、その不確実性を予測する能力を組み込む。
このアルゴリズムは、推論時に余分な計算をせずに、最先端のクロスドメイン群をカウントするアルゴリズムを一貫して上回る。
論文 参考訳(メタデータ) (2021-03-30T12:37:55Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - Data-driven Meta-set Based Fine-Grained Visual Classification [61.083706396575295]
本稿では, ノイズの多いWeb画像に対して, 微粒化認識のためのデータ駆動型メタセットベースアプローチを提案する。
具体的には、少量のクリーンなメタセットでガイドされ、メタラーニング方式で選択ネットを訓練し、分布内および分布外ノイズ画像の識別を行う。
論文 参考訳(メタデータ) (2020-08-06T03:04:16Z) - Multiple instance learning on deep features for weakly supervised object
detection with extreme domain shifts [1.9336815376402716]
近年,画像レベルのアノテーションのみを用いたオブジェクト検出 (WSOD) が注目されている。
事前学習した深部特徴に応用した単純な複数インスタンスアプローチは、非写真データセットに優れた性能をもたらすことを示す。
論文 参考訳(メタデータ) (2020-08-03T20:36:01Z) - ExpertNet: Adversarial Learning and Recovery Against Noisy Labels [8.88412854076574]
本稿では,AmateurとExpertで構成された新しいフレームワークを提案する。
訓練されたアマチュアとエキスパートは、画像とノイズラベルを積極的に利用して画像クラスを推論する。
CIFAR-10, CIFAR-100, およびChrothing1Mの実環境データに対する実験結果から, 提案モデルが幅広い雑音比に対して頑健な分類を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-07-10T11:12:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。