論文の概要: SGNet: A Super-class Guided Network for Image Classification and Object
Detection
- arxiv url: http://arxiv.org/abs/2104.12898v1
- Date: Mon, 26 Apr 2021 22:26:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 13:30:14.869147
- Title: SGNet: A Super-class Guided Network for Image Classification and Object
Detection
- Title(参考訳): SGNet:画像分類とオブジェクト検出のためのスーパークラスガイドネットワーク
- Authors: Kaidong Li, Nina Y. Wang, Yiju Yang and Guanghui Wang
- Abstract要約: 本稿では,高レベル意味情報をネットワークに統合するスーパークラス誘導ネットワーク(sgnet)を提案する。
実験結果は,提案手法を検証し,画像分類と物体検出において優れた性能を示す。
- 参考スコア(独自算出の注目度): 15.853822797338655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most classification models treat different object classes in parallel and the
misclassifications between any two classes are treated equally. In contrast,
human beings can exploit high-level information in making a prediction of an
unknown object. Inspired by this observation, the paper proposes a super-class
guided network (SGNet) to integrate the high-level semantic information into
the network so as to increase its performance in inference. SGNet takes
two-level class annotations that contain both super-class and finer class
labels. The super-classes are higher-level semantic categories that consist of
a certain amount of finer classes. A super-class branch (SCB), trained on
super-class labels, is introduced to guide finer class prediction. At the
inference time, we adopt two different strategies: Two-step inference (TSI) and
direct inference (DI). TSI first predicts the super-class and then makes
predictions of the corresponding finer class. On the other hand, DI directly
generates predictions from the finer class branch (FCB). Extensive experiments
have been performed on CIFAR-100 and MS COCO datasets. The experimental results
validate the proposed approach and demonstrate its superior performance on
image classification and object detection.
- Abstract(参考訳): ほとんどの分類モデルは異なるオブジェクトクラスを並列に扱い、2つのクラス間の誤分類は等しく扱われる。
対照的に、人間は未知の物体の予測にハイレベルな情報を利用することができる。
この観察から着想を得た本論文は,高レベル意味情報をネットワークに統合し,推論性能を向上させるスーパークラス誘導ネットワーク(sgnet)を提案する。
SGNetは、スーパークラスとファインクラスのラベルの両方を含む2レベルのクラスアノテーションを取ります。
スーパークラスは、ある種の細かなクラスからなるより高度なセマンティックカテゴリである。
スーパークラスラベルに基づいて訓練されたスーパークラスブランチ(SCB)を導入し、より微細なクラス予測を導く。
推論時には、2段階推論(TSI)と直接推論(DI)の2つの異なる戦略を採用する。
TSIはまずスーパークラスの予測を行い、次に対応するファインクラスの予測を行う。
一方、DIはより微細なクラスブランチ(FCB)から直接予測を生成する。
CIFAR-100とMS COCOデータセットで大規模な実験が行われた。
実験結果は,提案手法を検証し,画像分類と物体検出において優れた性能を示す。
関連論文リスト
- Instance-level Few-shot Learning with Class Hierarchy Mining [26.273796311012042]
我々は階層的な情報を利用して、新しいオブジェクトを効果的に分類するために、基本クラスの識別的および関連する特徴を活用する。
これらの特徴は、不足したデータを持つクラスを合理的に記述するために使用できる、ベースクラスの豊富なデータから抽出される。
FSISにおける階層型検出器を効果的に訓練するために,細粒度クラス間の関係をより詳細に記述するためにラベル改良を適用した。
論文 参考訳(メタデータ) (2023-04-15T02:55:08Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - GAN for Vision, KG for Relation: a Two-stage Deep Network for Zero-shot
Action Recognition [33.23662792742078]
ゼロショット動作認識のための2段階のディープニューラルネットワークを提案する。
サンプリング段階では,授業の動作特徴と単語ベクトルによって訓練されたGAN(Generative Adversarial Network)を利用する。
分類段階において、アクションクラスの単語ベクトルと関連するオブジェクトの関係に基づいて知識グラフを構築する。
論文 参考訳(メタデータ) (2021-05-25T09:34:42Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - No Subclass Left Behind: Fine-Grained Robustness in Coarse-Grained
Classification Problems [20.253644336965042]
実世界の分類タスクでは、各クラスは、しばしば複数のよりきめ細かい「サブクラス」を含む。
サブクラスラベルは頻繁に利用できないため、粗粒度のクラスラベルのみを使用してトレーニングされたモデルは、異なるサブクラス間で高い可変性能を示すことが多い。
本稿では,サブクラスラベルが不明な場合でも,隠れ層化を計測・緩和するGEORGEを提案する。
論文 参考訳(メタデータ) (2020-11-25T18:50:32Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Attribute Propagation Network for Graph Zero-shot Learning [57.68486382473194]
属性伝達ネットワーク (APNet) を導入し, 1) クラス毎に属性ベクトルを生成するグラフ伝搬モデルと, 2) パラメータ化隣人 (NN) 分類器から構成する。
APNetは、2つのゼロショット学習設定と5つのベンチマークデータセットによる実験で、魅力的なパフォーマンスまたは新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-24T16:53:40Z) - Many-Class Few-Shot Learning on Multi-Granularity Class Hierarchy [57.68486382473194]
我々は,教師付き学習とメタ学習の両方において,MCFS(Multi-class few-shot)問題について検討した。
本稿では,クラス階層を事前知識として活用し,粗大な分類器を訓練する。
モデル「メモリ拡張階層分類ネットワーク(MahiNet)」は、各粗いクラスが複数の細かなクラスをカバーできる粗い粒度分類を行う。
論文 参考訳(メタデータ) (2020-06-28T01:11:34Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。