論文の概要: On Label Granularity and Object Localization
- arxiv url: http://arxiv.org/abs/2207.10225v1
- Date: Wed, 20 Jul 2022 22:51:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 12:32:46.914061
- Title: On Label Granularity and Object Localization
- Title(参考訳): ラベル粒度と物体局在について
- Authors: Elijah Cole, Kimberly Wilber, Grant Van Horn, Xuan Yang, Marco
Fornoni, Pietro Perona, Serge Belongie, Andrew Howard, Oisin Mac Aodha
- Abstract要約: 弱教師付き物体の局所化におけるラベル粒度の役割について検討する。
適切なトレーニングラベルの粒度を選択することは、最高のWSOLアルゴリズムを選択するよりもはるかに大きなパフォーマンス向上をもたらすことが分かりました。
- 参考スコア(独自算出の注目度): 29.83149485725711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly supervised object localization (WSOL) aims to learn representations
that encode object location using only image-level category labels. However,
many objects can be labeled at different levels of granularity. Is it an
animal, a bird, or a great horned owl? Which image-level labels should we use?
In this paper we study the role of label granularity in WSOL. To facilitate
this investigation we introduce iNatLoc500, a new large-scale fine-grained
benchmark dataset for WSOL. Surprisingly, we find that choosing the right
training label granularity provides a much larger performance boost than
choosing the best WSOL algorithm. We also show that changing the label
granularity can significantly improve data efficiency.
- Abstract(参考訳): weakly supervised object localization (wsol) は、画像レベルのカテゴリラベルのみを使用して、オブジェクトの位置をエンコードする表現を学習することを目的としている。
しかし、多くのオブジェクトは異なる粒度でラベル付けすることができる。
動物か鳥か それとも大きな角のフクロウか?
どのイメージレベルラベルを使うべきか?
本稿では,WSOLにおけるラベル粒度の役割について検討する。
この調査を容易にするために、WSOLの新しい大規模きめ細かいベンチマークデータセットであるiNatLoc500を紹介します。
驚くべきことに、適切なトレーニングラベルの粒度を選択することは、最高のWSOLアルゴリズムを選択するよりもはるかに大きなパフォーマンス向上をもたらす。
また,ラベルの粒度変更によってデータ効率が著しく向上することを示す。
関連論文リスト
- Distilling Self-Supervised Vision Transformers for Weakly-Supervised
Few-Shot Classification & Segmentation [58.03255076119459]
視覚変換器(ViT)を利用した弱教師付き小ショット画像分類とセグメンテーションの課題に対処する。
提案手法は,自己監督型ViTからトークン表現を抽出し,その相関関係を利用して分類とセグメンテーションの予測を行う。
Pascal-5iとCOCO-20iの実験は、様々な監視設定において大きなパフォーマンス向上を示した。
論文 参考訳(メタデータ) (2023-07-07T06:16:43Z) - Label Smarter, Not Harder: CleverLabel for Faster Annotation of
Ambiguous Image Classification with Higher Quality [0.6927055673104933]
私たちは1つのオプションとして提案誘導アノテーションを使用し、アノテーション間の一貫性を高めます。
本稿では,検証された提案誘導アノテーションと修復されたLABLを用いて,コスト効率の高いLabElingのためのCleverLabelを提案する。
クレバーラベルはラベリングコストを最大30.0%削減し、クルバック・リーバーの分岐率を最大29.8%に向上させる。
論文 参考訳(メタデータ) (2023-05-22T08:12:25Z) - SEAL: Simultaneous Label Hierarchy Exploration And Learning [9.701914280306118]
本稿では,従来の階層構造に従う潜在ラベルでラベルを増大させることにより,ラベル階層を探索する新しいフレームワークを提案する。
本手法では,木間距離空間上の1-ワッサーシュタイン計量を客観的関数として用いて,データ駆動型ラベル階層を同時に学習し,半教師付き学習を行う。
論文 参考訳(メタデータ) (2023-04-26T08:31:59Z) - Open-World Weakly-Supervised Object Localization [26.531408294517416]
我々は、OWSOL(Open-World Weakly-Supervised Object Localization)と呼ばれる、新しい弱い教師付きオブジェクトローカライゼーションタスクを導入する。
本稿では、ラベル付きデータとラベルなしデータの両方を用いて、オブジェクトローカライゼーションのための完全なG-CAMを生成するコントラスト表現協調学習のパラダイムを提案する。
我々は、画像Net-1KとiNatLoc500という2つの広く使われているデータセットを再編成し、OWSOLの評価ベンチマークとしてOpenImages150を提案する。
論文 参考訳(メタデータ) (2023-04-17T13:31:59Z) - ScarceNet: Animal Pose Estimation with Scarce Annotations [74.48263583706712]
ScarceNetは、ラベルのない画像のための人工ラベルを生成するための擬似ラベルベースのアプローチである。
我々は、既存の半教師付きアプローチを大きなマージンで上回る、挑戦的なAP-10Kデータセットに対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-03-27T09:15:53Z) - Large Loss Matters in Weakly Supervised Multi-Label Classification [50.262533546999045]
まず、観測されていないラベルを負のラベルとみなし、Wタスクをノイズの多いマルチラベル分類にキャストする。
ノイズラベルを記憶しないために,大規模な損失サンプルを拒絶または補正する新しいW法を提案する。
提案手法は, 弱教師付きマルチラベル分類において, 大きな損失を適切に処理することが重要であることを検証した。
論文 参考訳(メタデータ) (2022-06-08T08:30:24Z) - Label Semantics for Few Shot Named Entity Recognition [68.01364012546402]
名前付きエンティティ認識におけるショットラーニングの問題について検討する。
我々は,ラベル名中の意味情報を,モデルに付加的な信号を与え,よりリッチな事前情報を与える手段として活用する。
本モデルは,第1エンコーダによって計算された名前付きエンティティの表現と,第2エンコーダによって計算されたラベル表現とを一致させることを学習する。
論文 参考訳(メタデータ) (2022-03-16T23:21:05Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Your "Flamingo" is My "Bird": Fine-Grained, or Not [60.25769809922673]
我々は,異なるレベルの専門知識の下で,様々なきめ細かい定義を調整する方法を検討する。
われわれはまず総合的な人間研究を行い、ほとんどの参加者が多粒度ラベルを好むことを確認した。
粗いレベルのラベル予測は、きめ細かい特徴学習をさらに高める。
論文 参考訳(メタデータ) (2020-11-18T02:24:54Z) - Zoom-CAM: Generating Fine-grained Pixel Annotations from Image Labels [15.664293530106637]
Zoom-CAMは、様々な識別クラスのインスタンスに対して、きめ細かい小さなオブジェクトをキャプチャする。
クラスラベルからピクセルレベルの擬似ラベルを生成することに注力する。
弱い教師付きセマンティックセグメンテーションのために、生成した擬似ラベルは、アートモデルの状態を1.1%改善する。
論文 参考訳(メタデータ) (2020-10-16T22:06:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。