論文の概要: GMAIR: Unsupervised Object Detection Based on Spatial Attention and
Gaussian Mixture
- arxiv url: http://arxiv.org/abs/2106.01722v1
- Date: Thu, 3 Jun 2021 09:50:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 21:37:43.767145
- Title: GMAIR: Unsupervised Object Detection Based on Spatial Attention and
Gaussian Mixture
- Title(参考訳): GMAIR:空間的注意とガウス混合に基づく教師なし物体検出
- Authors: Weijin Zhu, Yao Shen, Linfeng Yu, Lizeth Patricia Aguirre Sanchez
- Abstract要約: 教師なしオブジェクト検出のためのフレームワークGMAIRを提案する。
空間的注意とガウス混合を統合された深部生成モデルに組み込む。
GMAIRは,最先端の手法と比較して,ローカライゼーションとクラスタリングの競合的な結果が得られることを示す。
- 参考スコア(独自算出の注目度): 0.943094720712628
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies on unsupervised object detection based on spatial attention
have achieved promising results. Models, such as AIR and SPAIR, output "what"
and "where" latent variables that represent the attributes and locations of
objects in a scene, respectively. Most of the previous studies concentrate on
the "where" localization performance; however, we claim that acquiring "what"
object attributes is also essential for representation learning. This paper
presents a framework, GMAIR, for unsupervised object detection. It incorporates
spatial attention and a Gaussian mixture in a unified deep generative model.
GMAIR can locate objects in a scene and simultaneously cluster them without
supervision. Furthermore, we analyze the "what" latent variables and clustering
process. Finally, we evaluate our model on MultiMNIST and Fruit2D datasets and
show that GMAIR achieves competitive results on localization and clustering
compared to state-of-the-art methods.
- Abstract(参考訳): 空間的注意に基づく非教師対象検出に関する最近の研究は有望な成果を得た。
AIRやSPAIRのようなモデルは、それぞれシーン内のオブジェクトの属性と場所を表す"What"と"where"の潜在変数を出力します。
これまでの研究のほとんどは「どこで」ローカライゼーションのパフォーマンスに重点を置いているが、表現学習には「何」オブジェクト属性の獲得も不可欠であると主張している。
本稿では,教師なし物体検出のためのフレームワークGMAIRを提案する。
空間的注意とガウス混合を統合された深部生成モデルに組み込む。
GMAIRはシーン内のオブジェクトを見つけ、同時に監視なしでクラスタ化することができる。
さらに、"What"潜伏変数とクラスタリングプロセスを分析します。
最後に、MultiMNISTおよびFruit2Dデータセットのモデルを評価し、GMAIRが最先端手法と比較して、ローカライゼーションとクラスタリングの競合的な結果が得られることを示す。
関連論文リスト
- Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Unsupervised Recognition of Unknown Objects for Open-World Object
Detection [28.787586991713535]
Open-World Object Detection (OWOD) はオブジェクト検出問題を現実的でダイナミックなシナリオに拡張する。
現在のOWODモデル(OREやOW-DETRなど)は、高い客観性スコアを持つ擬似ラベル領域に注目する。
本稿では,未知の物体を認識するために,教師なしの識別モデルを学ぶ新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-31T08:17:29Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Long Range Object-Level Monocular Depth Estimation for UAVs [0.0]
本稿では,画像からモノクロ物体を長距離検出するための最先端手法の新たな拡張法を提案する。
まず、回帰タスクとして深度推定をモデル化する際、SigmoidおよびReLUライクエンコーディングを提案する。
次に,深度推定を分類問題とし,訓練損失の計算にソフトアルグマックス関数を導入する。
論文 参考訳(メタデータ) (2023-02-17T15:26:04Z) - Towards Spatial Equilibrium Object Detection [88.9747319572368]
本稿では,現代物体検出器の空間的不平衡問題について考察する。
本稿では,ゾーンにおける検出性能の測定により,この問題の定量化を提案する。
これは、より一般化された測度を設計する動機となり、空間平衡精度と呼ばれる。
論文 参考訳(メタデータ) (2023-01-14T17:33:26Z) - MOVE: Unsupervised Movable Object Segmentation and Detection [32.73565093619594]
MOVEは、いかなる形態の監視もせずにオブジェクトを分割する手法である。
これは、前景のオブジェクトが初期位置に対して局所的に移動できるという事実を利用する。
SotAよりも平均で7.2%改善している。
論文 参考訳(メタデータ) (2022-10-14T16:05:46Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Dynamic Refinement Network for Oriented and Densely Packed Object
Detection [75.29088991850958]
本稿では,機能選択モジュール (FSM) と動的改善ヘッド (DRH) の2つの新しいコンポーネントからなる動的精細化ネットワークを提案する。
我々のFSMは、ニューロンがターゲットオブジェクトの形状や向きに応じて受容野を調整できるのに対して、DRHはオブジェクト認識の方法で動的に予測を洗練させる。
我々は、DOTA、HRSC2016、SKU110K、および我々のSKU110K-Rデータセットを含むいくつかの公開ベンチマークで定量的評価を行う。
論文 参考訳(メタデータ) (2020-05-20T11:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。