論文の概要: MatrixNets: A New Scale and Aspect Ratio Aware Architecture for Object
Detection
- arxiv url: http://arxiv.org/abs/2001.03194v1
- Date: Thu, 9 Jan 2020 19:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 05:05:46.180663
- Title: MatrixNets: A New Scale and Aspect Ratio Aware Architecture for Object
Detection
- Title(参考訳): MatrixNets: オブジェクト検出のための新しいスケールとアスペクト比アウェアアーキテクチャ
- Authors: Abdullah Rashwan, Rishav Agarwal, Agastya Kalra, and Pascal Poupart
- Abstract要約: 本稿では,オブジェクト検出のための新しいディープアーキテクチャであるMatrixNetsを紹介する。
xNetsは、同様のサイズとアスペクト比のオブジェクトを多くの特殊なレイヤにマッピングする。
xNetsを活用して、単一ステージのオブジェクト検出フレームワークを強化します。
- 参考スコア(独自算出の注目度): 13.336574304251341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present MatrixNets (xNets), a new deep architecture for object detection.
xNets map objects with similar sizes and aspect ratios into many specialized
layers, allowing xNets to provide a scale and aspect ratio aware architecture.
We leverage xNets to enhance single-stage object detection frameworks. First,
we apply xNets on anchor-based object detection, for which we predict object
centers and regress the top-left and bottom-right corners. Second, we use
MatrixNets for corner-based object detection by predicting top-left and
bottom-right corners. Each corner predicts the center location of the object.
We also enhance corner-based detection by replacing the embedding layer with
center regression. Our final architecture achieves mAP of 47.8 on MS COCO,
which is higher than its CornerNet counterpart by +5.6 mAP while also closing
the gap between single-stage and two-stage detectors. The code is available at
https://github.com/arashwan/matrixnet.
- Abstract(参考訳): オブジェクト検出のための新しいディープアーキテクチャであるMatrixNets(xNets)を提案する。
xNetsは、同様のサイズとアスペクト比のオブジェクトを多くの特殊なレイヤにマッピングし、xNetsはスケールとアスペクト比を意識したアーキテクチャを提供する。
我々はxnetsを利用してsingle-stage object detectionフレームワークを強化した。
まず、xNetsをアンカーベースのオブジェクト検出に適用し、オブジェクト中心を予測し、左上隅と右下隅を回帰する。
第2に,左上と右下角を予測し,角に基づく物体検出にマトリクスネットを用いる。
各コーナーはオブジェクトの中心位置を予測します。
また,埋め込み層を中心回帰に置き換えることで,コーナーベース検出を強化する。
最終アーキテクチャはMS COCO上の47.8mAPであり、CornerNetの+5.6mAPよりも高いが、同時に単段検出器と二段検出器のギャップを埋める。
コードはhttps://github.com/arashwan/matrixnetで入手できる。
関連論文リスト
- CenterNet++ for Object Detection [174.59360147041673]
ボトムアップアプローチはトップダウンと同じくらい競争力があり、リコールも高くなります。
CenterNetと呼ばれる我々のアプローチは、各オブジェクトを三重項キーポイント(左上と右下)として検出する。
MS-COCOデータセットでは、Res2Net-101 と Swin-Transformer の CenterNet がそれぞれ 53.7% と 57.1% のAPを達成している。
論文 参考訳(メタデータ) (2022-04-18T16:45:53Z) - Lightweight Salient Object Detection in Optical Remote Sensing Images
via Feature Correlation [93.80710126516405]
本稿では,これらの問題に対処する軽量ORSI-SODソリューションであるCorrNetを提案する。
それぞれのコンポーネントのパラメータと計算を減らし、CorrNetは4.09Mのパラメータしか持たず、21.09GのFLOPで実行している。
2つの公開データセットの実験結果から、私たちの軽量なCorrNetは、26の最先端メソッドと比較して、競争力やパフォーマンスがさらに向上することが示された。
論文 参考訳(メタデータ) (2022-01-20T08:28:01Z) - Location-Sensitive Visual Recognition with Cross-IOU Loss [177.86369890708457]
本稿では,オブジェクト検出,インスタンスセグメンテーション,ポーズ推定のための位置感知ネットワーク (LSNet) という統合ソリューションを提案する。
ディープニューラルネットワークをバックボーンとして、LSNetは、ターゲットオブジェクトの形状を一緒に定義するアンカーポイントとランドマークのセットを予測します。
論文 参考訳(メタデータ) (2021-04-11T02:17:14Z) - RelationNet++: Bridging Visual Representations for Object Detection via
Transformer Decoder [33.516628423999975]
本稿では,1つの表現形式上に構築された典型的なオブジェクト検出器に他の表現をブリッジするアテンションベースのデコーダモジュールを提案する。
我々は、強力なバックボーンを持つ最先端のフレームワークを、約2.0$ APで改善し、COCOテストデーブで52.7ドルに達した。
論文 参考訳(メタデータ) (2020-10-29T17:59:45Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - Geometry Constrained Weakly Supervised Object Localization [55.17224813345206]
弱教師付きオブジェクトローカライゼーションのための幾何制約付きネットワークであるGC-Netを提案する。
検出器は、幾何学的形状を記述する係数の集合によって定義された物体の位置を予測する。
ジェネレータは、得られたマスクされた画像を入力として、オブジェクトとバックグラウンドの2つの補完的な分類タスクを実行する。
従来のアプローチとは対照的に、GC-Netはエンドツーエンドでトレーニングされ、後処理なしでオブジェクトの位置を予測する。
論文 参考訳(メタデータ) (2020-07-19T17:33:42Z) - Learning Gaussian Maps for Dense Object Detection [1.8275108630751844]
類似したオブジェクトが互いに近接して配置されるシーンにおいて,共通かつ高精度なオブジェクト検出手法を概説する。
ガウス写像のマルチタスク学習と分類と境界ボックス回帰がベースラインの精度を大幅に向上させることを示す。
提案手法は,SKU110K citesku110kデータセットの精度も向上する。
論文 参考訳(メタデータ) (2020-04-24T17:01:25Z) - NETNet: Neighbor Erasing and Transferring Network for Better Single Shot
Object Detection [170.30694322460045]
我々は、ピラミッドの特徴を再設定し、スケールアウェアな特徴を探索する新しいNeighbor Erasing and Transferring(NET)メカニズムを提案する。
NETNetと呼ばれるシングルショットネットワークは、スケールアウェアなオブジェクト検出のために構築されている。
論文 参考訳(メタデータ) (2020-01-18T15:21:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。