論文の概要: Interpretable and Accurate Fine-grained Recognition via Region Grouping
- arxiv url: http://arxiv.org/abs/2005.10411v1
- Date: Thu, 21 May 2020 01:18:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 22:34:22.712385
- Title: Interpretable and Accurate Fine-grained Recognition via Region Grouping
- Title(参考訳): 領域グルーピングによる解釈可能で高精度な細粒度認識
- Authors: Zixuan Huang, Yin Li
- Abstract要約: 微粒な視覚認識のための解釈可能な深層モデルを提案する。
私たちの手法の中核は、ディープニューラルネットワーク内での領域ベースの部分発見と帰属の統合です。
本研究は,分類タスクの最先端手法と比較した。
- 参考スコア(独自算出の注目度): 14.28113520947247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an interpretable deep model for fine-grained visual recognition.
At the core of our method lies the integration of region-based part discovery
and attribution within a deep neural network. Our model is trained using
image-level object labels, and provides an interpretation of its results via
the segmentation of object parts and the identification of their contributions
towards classification. To facilitate the learning of object parts without
direct supervision, we explore a simple prior of the occurrence of object
parts. We demonstrate that this prior, when combined with our region-based part
discovery and attribution, leads to an interpretable model that remains highly
accurate. Our model is evaluated on major fine-grained recognition datasets,
including CUB-200, CelebA and iNaturalist. Our results compare favorably to
state-of-the-art methods on classification tasks, and our method outperforms
previous approaches on the localization of object parts.
- Abstract(参考訳): 微粒な視覚認識のための解釈可能な深層モデルを提案する。
私たちの手法の中核は、ディープニューラルネットワーク内での領域ベースの部分発見と帰属の統合です。
本モデルは,画像レベルのオブジェクトラベルを用いて学習し,対象部分のセグメンテーションとそれらの分類への貢献の識別を通じて,その結果を解釈する。
直接の監督なしに対象部品の学習を容易にするために,対象部品の発生に先立って簡単な方法を探る。
我々は、この先、地域ベースの部分発見と属性を組み合わせることで、高い精度で解釈可能なモデルが得られることを実証した。
本モデルは, CUB-200, CelebA, iNaturalistなど, 高精度な認識データセットを用いて評価した。
本手法は,分類タスクにおける最先端手法と好適に比較し,対象部品の局在化に対する従来のアプローチを上回っている。
関連論文リスト
- Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - PARTICUL: Part Identification with Confidence measure using Unsupervised
Learning [0.0]
PartICULは、きめ細かい認識に使われるデータセットから部分検出器を教師なしで学習するための新しいアルゴリズムである。
トレーニングセット内のすべての画像のマクロ類似性を利用して、事前訓練された畳み込みニューラルネットワークの特徴空間における繰り返しパターンをマイニングする。
我々の検出器は、その予測に対する信頼度を測りながら、物体の一部を一貫して強調することができることを示す。
論文 参考訳(メタデータ) (2022-06-27T13:44:49Z) - Point-Level Region Contrast for Object Detection Pre-Training [147.47349344401806]
本稿では,物体検出作業のための自己教師付き事前学習手法である点レベル領域コントラストを提案する。
提案手法は,異なる領域から個々の点対を直接抽出することにより,コントラスト学習を行う。
領域ごとの集約表現と比較すると,入力領域の品質の変化に対して,我々のアプローチはより堅牢である。
論文 参考訳(メタデータ) (2022-02-09T18:56:41Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。