論文の概要: Webly Supervised Image Classification with Metadata: Automatic Noisy
Label Correction via Visual-Semantic Graph
- arxiv url: http://arxiv.org/abs/2010.05864v1
- Date: Mon, 12 Oct 2020 17:15:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 07:25:22.130256
- Title: Webly Supervised Image Classification with Metadata: Automatic Noisy
Label Correction via Visual-Semantic Graph
- Title(参考訳): メタデータを用いたWebly Supervised Image Classification: Visual-Semantic Graphによるノイズラベルの自動補正
- Authors: Jingkang Yang, Weirong Chen, Litong Feng, Xiaopeng Yan, Huabin Zheng,
Wayne Zhang
- Abstract要約: ビジュアル・セマンティックグラフに基づく自動ラベル修正器VSGraph-LCを提案する。
Webvision-1000 と NUS-81-Web による現実的な Web 教師あり学習データセットの実験は,VSGraph-LC の有効性と堅牢性を示している。
- 参考スコア(独自算出の注目度): 24.835286261643486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Webly supervised learning becomes attractive recently for its efficiency in
data expansion without expensive human labeling. However, adopting search
queries or hashtags as web labels of images for training brings massive noise
that degrades the performance of DNNs. Especially, due to the semantic
confusion of query words, the images retrieved by one query may contain
tremendous images belonging to other concepts. For example, searching `tiger
cat' on Flickr will return a dominating number of tiger images rather than the
cat images. These realistic noisy samples usually have clear visual semantic
clusters in the visual space that mislead DNNs from learning accurate semantic
labels. To correct real-world noisy labels, expensive human annotations seem
indispensable. Fortunately, we find that metadata can provide extra knowledge
to discover clean web labels in a labor-free fashion, making it feasible to
automatically provide correct semantic guidance among the massive label-noisy
web data. In this paper, we propose an automatic label corrector VSGraph-LC
based on the visual-semantic graph. VSGraph-LC starts from anchor selection
referring to the semantic similarity between metadata and correct label
concepts, and then propagates correct labels from anchors on a visual graph
using graph neural network (GNN). Experiments on realistic webly supervised
learning datasets Webvision-1000 and NUS-81-Web show the effectiveness and
robustness of VSGraph-LC. Moreover, VSGraph-LC reveals its advantage on the
open-set validation set.
- Abstract(参考訳): ウェブ教師あり学習は、高価な人間のラベル付けなしでデータ拡張の効率を向上するために近年魅力的になっている。
しかし、検索クエリやハッシュタグをトレーニング用画像のWebラベルとして採用すると、DNNのパフォーマンスが低下する大きなノイズが発生する。
特に、クエリワードのセマンティックな混同により、あるクエリによって検索された画像は、他の概念に属する膨大な画像を含む可能性がある。
例えば、Flickrで‘タイガー猫’を検索すると、猫の画像ではなく、支配的な数のトラ画像が返される。
これらの現実的なノイズのサンプルは、通常、視覚空間に明確な視覚的セマンティッククラスタを持ち、DNNが正確なセマンティックラベルを学習することを誤解させる。
現実世界の騒がしいラベルを正すには、高価な人間のアノテーションは不可欠に思える。
幸いなことに、メタデータは、労働自由な方法でクリーンなWebラベルを発見するための余分な知識を提供するので、巨大なラベルにうるさいWebデータの中で、正しいセマンティックガイダンスを自動で提供することが可能である。
本稿では,ビジュアル・セマンティックグラフに基づく自動ラベル修正器VSGraph-LCを提案する。
VSGraph-LCは、メタデータと正しいラベル概念のセマンティックな類似性を参照してアンカー選択から始まり、グラフニューラルネットワーク(GNN)を使用して視覚グラフ上のアンカーから正しいラベルを伝搬する。
Webvision-1000 と NUS-81-Web による現実的な Web 教師あり学習データセットの実験は,VSGraph-LC の有効性と堅牢性を示している。
さらに、vsgraph-lcはオープンセットバリデーションセットの利点を明らかにしている。
関連論文リスト
- TagAlign: Improving Vision-Language Alignment with Multi-Tag Classification [59.779532652634295]
画像とテキストのペア以外の追加データフォーマットを必要とせずに、画像とテキストの特徴の整合性を向上するための、恥ずかしいほど単純なアプローチを提案する。
画像中に存在する可能性が極めて高い記述からオブジェクトや属性を解析する。
実験は、既存の代替手段よりも平均5.2%のフレームワークの改善を裏付けるものです。
論文 参考訳(メタデータ) (2023-12-21T18:59:06Z) - ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - CAPro: Webly Supervised Learning with Cross-Modality Aligned Prototypes [93.71909293023663]
クロスモダリティ・アライテッド・プロトタイプ(CAPro)は、視覚表現を正しい意味論で学習する統合コントラスト学習フレームワークである。
CAProは、新しい最先端のパフォーマンスを実現し、オープンセット認識に対する堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-15T07:20:22Z) - Learning on Graphs under Label Noise [5.909452203428086]
我々は,ラベルノイズのあるグラフ上での学習問題を解決するために,CGNN(Consistent Graph Neural Network)と呼ばれる新しいアプローチを開発した。
具体的には、グラフの対比学習を正規化用語として採用し、拡張ノードの2つのビューが一貫した表現を持つように促進する。
グラフ上の雑音ラベルを検出するために,ホモフィリー仮定に基づくサンプル選択手法を提案する。
論文 参考訳(メタデータ) (2023-06-14T01:38:01Z) - iLabel: Interactive Neural Scene Labelling [20.63756683450811]
3次元神経場を用いた幾何学、色、意味の合同表現は、超スパース相互作用による正確な密なラベリングを可能にする。
当社のiLabelシステムは、トレーニングデータを必要としないが、標準的な方法よりも正確にシーンをラベル付けすることができる。
これは'オープンセット'のやり方で動作し、ユーザがオンザフライで定義したセマンティッククラスで機能する。
論文 参考訳(メタデータ) (2021-11-29T15:49:20Z) - Multi-label Iterated Learning for Image Classification with Label
Ambiguity [3.5736176624479654]
単一ラベルからの多ラベル学習の帰納バイアスを組み込むために,多ラベル反復学習(MILe)を提案する。
MILeは、バイナリ予測を伝搬することにより、画像のマルチラベル記述を構築する、シンプルだが効果的な手順である。
我々は,MILeがラベルノイズを効果的に低減し,WebVisionのような実世界の大規模ノイズデータに対して最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-11-23T22:10:00Z) - Unified Robust Training for Graph NeuralNetworks against Label Noise [12.014301020294154]
半監督設定でノイズの多いラベルをグラフ上で学習するための新しいフレームワークである UnionNET を提案します。
提案手法は,GNNを頑健に訓練し,ラベル修正を同時に行うための統一的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-03-05T01:17:04Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - Knowledge-Guided Multi-Label Few-Shot Learning for General Image
Recognition [75.44233392355711]
KGGRフレームワークは、ディープニューラルネットワークと統計ラベル相関の事前知識を利用する。
まず、統計ラベルの共起に基づいて異なるラベルを相関させる構造化知識グラフを構築する。
次に、ラベルセマンティクスを導入し、学習セマンティクス固有の特徴をガイドする。
グラフノードの相互作用を探索するためにグラフ伝搬ネットワークを利用する。
論文 参考訳(メタデータ) (2020-09-20T15:05:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。