論文の概要: BorderDet: Border Feature for Dense Object Detection
- arxiv url: http://arxiv.org/abs/2007.11056v3
- Date: Fri, 9 Apr 2021 04:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 05:14:28.027311
- Title: BorderDet: Border Feature for Dense Object Detection
- Title(参考訳): BorderDet:Dense Object DetectionのためのBorder機能
- Authors: Han Qiu, Yuchen Ma, Zeming Li, Songtao Liu, Jian Sun
- Abstract要約: 境界の極端点から「境界特徴」を抽出し、点特徴を増強する、Border-Alignと呼ばれる単純で効率的な演算子を提案する。
BorderAlignに基づいてBorderDetと呼ばれる新しい検出アーキテクチャを設計し、より強力な分類とより正確なローカライゼーションのために境界情報を明示的に活用する。
- 参考スコア(独自算出の注目度): 88.25548173923171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense object detectors rely on the sliding-window paradigm that predicts the
object over a regular grid of image. Meanwhile, the feature maps on the point
of the grid are adopted to generate the bounding box predictions. The point
feature is convenient to use but may lack the explicit border information for
accurate localization. In this paper, We propose a simple and efficient
operator called Border-Align to extract "border features" from the extreme
point of the border to enhance the point feature. Based on the BorderAlign, we
design a novel detection architecture called BorderDet, which explicitly
exploits the border information for stronger classification and more accurate
localization. With ResNet-50 backbone, our method improves single-stage
detector FCOS by 2.8 AP gains (38.6 v.s. 41.4). With the ResNeXt-101-DCN
backbone, our BorderDet obtains 50.3 AP, outperforming the existing
state-of-the-art approaches. The code is available at
(https://github.com/Megvii-BaseDetection/BorderDet).
- Abstract(参考訳): 複雑な物体検出器は、物体を通常の画像グリッド上で予測するスライドウインドウのパラダイムに依存している。
一方、グリッドの点にある特徴マップは境界ボックス予測を生成するために採用されている。
ポイント機能は使いやすいが、正確なローカライゼーションのための明確な境界情報がない可能性がある。
本稿では,境界の極端点から境界特徴を抽出し,点特徴を増強する,Border-Alignと呼ばれるシンプルで効率的な演算子を提案する。
BorderAlignに基づいてBorderDetと呼ばれる新しい検出アーキテクチャを設計し、より強力な分類とより正確なローカライゼーションのために境界情報を明示的に活用する。
ResNet-50のバックボーンでは、単段検出器FCOSを2.8APゲイン(38.6 v.s. 41.4)改善する。
ResNeXt-101-DCNのバックボーンにより、BorderDetは50.3 APを獲得し、既存の最先端アプローチよりも優れています。
コードはhttps://github.com/Megvii-BaseDetection/BorderDet)で入手できる。
関連論文リスト
- Salient Object Detection via Bounding-box Supervision [10.20433609492073]
ラベル付け作業の軽減を図るため,バウンディングボックスに基づく弱教師付きサリエンシ検出に取り組んでいる。
予測構造を正規化するために,構造認識型自己教師損失を導入する。
6つのベンチマークRGBサリエンシデータセットの実験結果から,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-05-11T03:03:26Z) - CenterNet++ for Object Detection [174.59360147041673]
ボトムアップアプローチはトップダウンと同じくらい競争力があり、リコールも高くなります。
CenterNetと呼ばれる我々のアプローチは、各オブジェクトを三重項キーポイント(左上と右下)として検出する。
MS-COCOデータセットでは、Res2Net-101 と Swin-Transformer の CenterNet がそれぞれ 53.7% と 57.1% のAPを達成している。
論文 参考訳(メタデータ) (2022-04-18T16:45:53Z) - Scribble-based Boundary-aware Network for Weakly Supervised Salient
Object Detection in Remote Sensing Images [10.628932392896374]
スパース・スクリブル・アノテーションからリモートセンシング画像の正当性を予測するために,弱教師付きサルエント・オブジェクト検出フレームワークを提案する。
具体的には,高信頼度オブジェクト境界 (擬似) ラベルによって明示的に制御されるオブジェクト境界意味論を探索する境界対応モジュール (BAM) を設計する。
次に,境界セマンティクスを高次特徴と統合し,スクリブルラベルの監督下での健全な物体検出を誘導する。
論文 参考訳(メタデータ) (2022-02-07T20:32:21Z) - Border-SegGCN: Improving Semantic Segmentation by Refining the Border
Outline using Graph Convolutional Network [0.15469452301122172]
Border-SegGCNはグラフ畳み込みネットワーク(GCN)を用いて境界線を精細化することでセマンティックセグメンテーションを改善する
我々は、CamVidデータセットとCarlaデータセットにおけるBorder-SegGCNの有効性を実証し、CamVidデータセットでの後処理なしで81.96%のテストセット性能を達成する。
論文 参考訳(メタデータ) (2021-09-11T19:34:04Z) - From Voxel to Point: IoU-guided 3D Object Detection for Point Cloud with
Voxel-to-Point Decoder [79.39041453836793]
We present an Intersection-over-Union (IoU) guided two-stage 3D object detector with a voxel-to-point decoder。
本稿では,Voxel based Region Proposal Network (RPN) からマップビュー機能に加えて,点特徴を抽出する残余のvoxel-to-pointデコーダを提案する。
そこで本研究では,推定したIoUと改良された提案ボックスをより関連性の高いローカライゼーション信頼度として整列する,簡便で効率的な手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T14:30:13Z) - Ocean: Object-aware Anchor-free Tracking [75.29960101993379]
アンカーベース手法の回帰ネットワークは、正のアンカーボックスでのみ訓練される。
本稿では,この問題に対処する新しいオブジェクト認識型アンカーフリーネットワークを提案する。
我々のアンカーフリートラッカーは5つのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-18T17:51:39Z) - Rethinking Localization Map: Towards Accurate Object Perception with
Self-Enhancement Maps [78.2581910688094]
本研究は, カテゴリーラベルのみを監督として, 正確な対象位置分布マップと対象境界を抽出する, 新たな自己強調手法を提案する。
特に、提案されたセルフエンハンスメントマップは、ILSVRC上で54.88%の最先端のローカライゼーション精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T12:35:55Z) - DeepStrip: High Resolution Boundary Refinement [60.00241966809684]
関心領域をストリップ画像に変換し、ストリップ領域の境界予測を計算することを提案する。
対象境界を検出するために,2つの予測層を持つフレームワークを提案する。
我々は、誤報を減らすために、整合性とC0連続性正規化をネットワークに強制する。
論文 参考訳(メタデータ) (2020-03-25T22:44:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。