論文の概要: Unsupervised Part Discovery via Feature Alignment
- arxiv url: http://arxiv.org/abs/2012.00313v1
- Date: Tue, 1 Dec 2020 07:25:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 05:02:19.209054
- Title: Unsupervised Part Discovery via Feature Alignment
- Title(参考訳): 機能アライメントによる教師なし部分発見
- Authors: Mengqi Guo, Yutong Bai, Zhishuai Zhang, Adam Kortylewski, Alan Yuille
- Abstract要約: 我々はニューラルネットワークの特徴がニュアンス変数にほとんど不変であるという特性を利用する。
対応する特徴写像のアフィンアライメントを通して、同じポーズで同じオブジェクトカテゴリのインスタンスを示す類似した画像のセットを見つける。
推論中は、部品検出はシンプルで高速で、フィードフォワードニューラルネットワーク以外の追加モジュールやオーバーヘッドは不要である。
- 参考スコア(独自算出の注目度): 15.67978793872039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding objects in terms of their individual parts is important,
because it enables a precise understanding of the objects' geometrical
structure, and enhances object recognition when the object is seen in a novel
pose or under partial occlusion. However, the manual annotation of parts in
large scale datasets is time consuming and expensive. In this paper, we aim at
discovering object parts in an unsupervised manner, i.e., without ground-truth
part or keypoint annotations. Our approach builds on the intuition that objects
of the same class in a similar pose should have their parts aligned at similar
spatial locations. We exploit the property that neural network features are
largely invariant to nuisance variables and the main remaining source of
variations between images of the same object category is the object pose.
Specifically, given a training image, we find a set of similar images that show
instances of the same object category in the same pose, through an affine
alignment of their corresponding feature maps. The average of the aligned
feature maps serves as pseudo ground-truth annotation for a supervised training
of the deep network backbone. During inference, part detection is simple and
fast, without any extra modules or overheads other than a feed-forward neural
network. Our experiments on several datasets from different domains verify the
effectiveness of the proposed method. For example, we achieve 37.8 mAP on
VehiclePart, which is at least 4.2 better than previous methods.
- Abstract(参考訳): オブジェクトを個々の部分で理解することは、オブジェクトの幾何学的構造を正確に理解し、新しいポーズや部分的閉塞下でオブジェクトが見られたときにオブジェクト認識を強化するために重要である。
しかし、大規模なデータセットのパーツのマニュアルアノテーションは時間がかかり高価である。
本稿では,非教師的手法,すなわち,基幹部分やキーポイントアノテーションを使わずに,対象部分の発見を目指す。
我々のアプローチは、同じポーズで同じクラスのオブジェクトが同じ空間の場所に配置されるべきという直観に基づいている。
ニューラルネットワークの特徴はニュアンス変数にほとんど不変であり、同じオブジェクトカテゴリの画像間の変化の主な原因はオブジェクトのポーズである。
具体的には、訓練画像が与えられた場合、同じポーズで同じ対象カテゴリのインスタンスを示す類似画像セットを、対応する特徴マップのアフィンアラインメントを通じて見つける。
調整された機能マップの平均は、ディープネットワークバックボーンの教師付きトレーニングのための擬似基底アノテーションとして機能する。
推論の間、部品検出は単純で高速であり、フィードフォワードニューラルネットワーク以外のモジュールやオーバーヘッドは不要である。
提案手法の有効性を検証するため,複数の異なる領域のデータセットを用いた実験を行った。
例えば、自動車部品の37.8 mAPは、以前の方法よりも少なくとも4.2良い。
関連論文リスト
- PDiscoNet: Semantically consistent part discovery for fine-grained
recognition [62.12602920807109]
画像レベルのクラスラベルのみを用いて,対象部品の発見を推奨する先行情報とともにPDiscoNetを提案する。
CUB,CelebA,PartImageNet で得られた結果から,提案手法は従来手法よりもかなり優れた部分発見性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-09-06T17:19:29Z) - Variable Radiance Field for Real-Life Category-Specifc Reconstruction
from Single Image [27.290232027686237]
本稿では,カメラパラメータが未知の単一画像からカテゴリ固有のオブジェクトを再構成できる新しいフレームワークを提案する。
マルチスケールグローバル特徴抽出器を用いてオブジェクトの形状と外観をパラメータ化する。
また,特徴抽出器の改良のために,コントラスト学習に基づく事前学習戦略を提案する。
論文 参考訳(メタデータ) (2023-06-08T12:12:02Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Multi-patch Feature Pyramid Network for Weakly Supervised Object
Detection in Optical Remote Sensing Images [39.25541709228373]
マルチパッチ特徴ピラミッドネットワーク(MPFP-Net)を用いたオブジェクト検出のための新しいアーキテクチャを提案する。
MPFP-Netは、トレーニング中の最も差別的なパッチのみを追求する現在のモデルとは異なる。
残余値の正則化と核融合遷移層を厳密にノルム保存する有効な方法を提案する。
論文 参考訳(メタデータ) (2021-08-18T09:25:39Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Look-into-Object: Self-supervised Structure Modeling for Object
Recognition [71.68524003173219]
我々は,自己スーパービジョンを取り入れた「対象」(具体的かつ内在的に対象構造をモデル化する)を提案する。
認識バックボーンは、より堅牢な表現学習のために大幅に拡張可能であることを示す。
提案手法は汎用オブジェクト認識(ImageNet)や細粒度オブジェクト認識タスク(CUB, Cars, Aircraft)など,多数のベンチマークにおいて大きなパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-03-31T12:22:51Z) - OS2D: One-Stage One-Shot Object Detection by Matching Anchor Features [14.115782214599015]
ワンショットオブジェクト検出は、単一のデモによって定義されたオブジェクトを検出することで構成される。
ローカライズと認識を共同で行うワンステージシステムを構築している。
いくつかの挑戦的領域に対する実験的評価は,本手法が未知のクラスを検出できることを示唆している。
論文 参考訳(メタデータ) (2020-03-15T11:39:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。