論文の概要: HoughNet: Integrating near and long-range evidence for bottom-up object
detection
- arxiv url: http://arxiv.org/abs/2007.02355v3
- Date: Fri, 24 Jul 2020 07:12:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 08:21:53.775763
- Title: HoughNet: Integrating near and long-range evidence for bottom-up object
detection
- Title(参考訳): HoughNet:ボトムアップオブジェクト検出の近距離および長距離証拠の統合
- Authors: Nermin Samet, Samet Hicsonmez, Emre Akbas
- Abstract要約: HoughNetは1段階、アンカーフリー、投票ベース、ボトムアップオブジェクト検出方法である。
視覚認識のための、近距離と長距離の両方のクラス条件の証拠を統合することができる。
- 参考スコア(独自算出の注目度): 12.397047191315966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents HoughNet, a one-stage, anchor-free, voting-based,
bottom-up object detection method. Inspired by the Generalized Hough Transform,
HoughNet determines the presence of an object at a certain location by the sum
of the votes cast on that location. Votes are collected from both near and
long-distance locations based on a log-polar vote field. Thanks to this voting
mechanism, HoughNet is able to integrate both near and long-range,
class-conditional evidence for visual recognition, thereby generalizing and
enhancing current object detection methodology, which typically relies on only
local evidence. On the COCO dataset, HoughNet's best model achieves 46.4 $AP$
(and 65.1 $AP_{50}$), performing on par with the state-of-the-art in bottom-up
object detection and outperforming most major one-stage and two-stage methods.
We further validate the effectiveness of our proposal in another task, namely,
"labels to photo" image generation by integrating the voting module of HoughNet
to two different GAN models and showing that the accuracy is significantly
improved in both cases. Code is available at
https://github.com/nerminsamet/houghnet.
- Abstract(参考訳): 本稿では,一段階のアンカーフリー,投票ベース,ボトムアップオブジェクト検出手法であるHoughNetを提案する。
一般化されたハフ変換にインスパイアされたHoughNetは、ある場所におけるオブジェクトの存在を、その場所に投じられた投票の合計によって決定する。
投票は、対極投票の場に基づいて、近距離と遠距離の両方の場所から集められる。
この投票機構のおかげで、HoughNetは視覚認識のための近距離および長距離のクラス条件のエビデンスを統合することができ、それによって現在のオブジェクト検出方法論を一般化し、拡張することができる。
COCOデータセットでは、HoughNetの最良のモデルは46.4$AP$(および65.1$AP_{50}$)を達成し、ボトムアップオブジェクト検出における最先端の最先端と同等に動作し、主要な1段階と2段階のメソッドよりも優れている。
我々は、HoughNetの投票モジュールを2つの異なるGANモデルに統合することにより、別のタスク、すなわち「写真へのラベル」画像生成における提案の有効性をさらに検証し、どちらの場合においても精度が大幅に向上することを示す。
コードはhttps://github.com/nerminsamet/houghnetで入手できる。
関連論文リスト
- 3D Object Detection from Point Cloud via Voting Step Diffusion [52.9966883689137]
既存の投票ベースのメソッドは、個々のオブジェクトの部分的な面から厳しいノイズとともに投票を受け取り、亜最適検出性能をもたらす。
雑音条件付きスコアネットワークを用いて分布のスコア関数を推定することにより、ランダムな3Dポイントを分布の高密度領域へ移動させる新しい手法を提案する。
大規模屋内3DシーンデータセットSUN RGB-DとScanNet V2の実験により,提案手法の優位性を実証した。
論文 参考訳(メタデータ) (2024-03-21T05:04:52Z) - What You See Is What You Detect: Towards better Object Densification in
3D detection [2.3436632098950456]
広く使われているフル形状のコンプリートアプローチは、特に遠く離れた物や歩行者のような小さな物に対して、エラーのアップバウンドを高くする。
従来の手法が生成した予測ポイントの11.3%しか必要としない可視部分補完法を提案する。
密表現を復元するために,目に見える前景オブジェクトに関連付けられた点集合を拡大するメッシュデフォーメーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2023-10-27T01:46:37Z) - CenterNet++ for Object Detection [174.59360147041673]
ボトムアップアプローチはトップダウンと同じくらい競争力があり、リコールも高くなります。
CenterNetと呼ばれる我々のアプローチは、各オブジェクトを三重項キーポイント(左上と右下)として検出する。
MS-COCOデータセットでは、Res2Net-101 と Swin-Transformer の CenterNet がそれぞれ 53.7% と 57.1% のAPを達成している。
論文 参考訳(メタデータ) (2022-04-18T16:45:53Z) - HM-Net: A Regression Network for Object Center Detection and Tracking on
Wide Area Motion Imagery [1.2249546377051437]
我々は、ディープニューラルネットワークに基づくオブジェクト検出と追跡の複合モデル、すなわちHeat Map Network(HM-Net)を提案する。
HM-Netは、最先端のフレーム差分法やバックグラウンドサブトラクション法よりも大幅に高速である。
WPAFBデータセット上で、最先端のWAMI移動物体の検出と追跡方法より優れています。
論文 参考訳(メタデータ) (2021-10-19T11:56:30Z) - Multi-patch Feature Pyramid Network for Weakly Supervised Object
Detection in Optical Remote Sensing Images [39.25541709228373]
マルチパッチ特徴ピラミッドネットワーク(MPFP-Net)を用いたオブジェクト検出のための新しいアーキテクチャを提案する。
MPFP-Netは、トレーニング中の最も差別的なパッチのみを追求する現在のモデルとは異なる。
残余値の正則化と核融合遷移層を厳密にノルム保存する有効な方法を提案する。
論文 参考訳(メタデータ) (2021-08-18T09:25:39Z) - HoughNet: Integrating near and long-range evidence for visual detection [13.965477771846409]
HoughNetは1段階、アンカーフリー、投票ベース、ボトムアップオブジェクト検出方法である。
それは視覚認識のための近距離および長距離の、クラス条件の証拠を統合できます。
論文 参考訳(メタデータ) (2021-04-14T11:05:29Z) - Back-tracing Representative Points for Voting-based 3D Object Detection
in Point Clouds [42.24217764222523]
back-tracing Representative Points Network (BRNet) と呼ばれる新しい3Dオブジェクト検出手法を提案する。
brnetは投票所から代表ポイントを追跡し、これらの生成したポイントの周りの補完的なシードポイントを再検討する。
当社のBRNetはシンプルで効果的で、2つの大規模ポイントクラウドデータセットの最先端のメソッドを大幅に上回ります。
論文 参考訳(メタデータ) (2021-04-13T11:39:42Z) - Glance and Gaze: Inferring Action-aware Points for One-Stage
Human-Object Interaction Detection [81.32280287658486]
Glance and Gaze Network(GGNet)と呼ばれる新しいワンステージ手法を提案する。
GGNetは、一組のアクションウェアポイント(ActPoints)を目視および視線ステップで適応的にモデル化する。
検出された各インタラクションと関連する人間と対象のペアを効果的に一致させるアクションアウェア・アプローチを設計します。
論文 参考訳(メタデータ) (2021-04-12T08:01:04Z) - Location-Sensitive Visual Recognition with Cross-IOU Loss [177.86369890708457]
本稿では,オブジェクト検出,インスタンスセグメンテーション,ポーズ推定のための位置感知ネットワーク (LSNet) という統合ソリューションを提案する。
ディープニューラルネットワークをバックボーンとして、LSNetは、ターゲットオブジェクトの形状を一緒に定義するアンカーポイントとランドマークのセットを予測します。
論文 参考訳(メタデータ) (2021-04-11T02:17:14Z) - MLCVNet: Multi-Level Context VoteNet for 3D Object Detection [51.45832752942529]
我々は,最先端のVoteNet上に構築された3次元オブジェクトを相関的に認識するためのマルチレベルコンテキストVoteNet(MLCVNet)を提案する。
異なるレベルのコンテキスト情報をエンコードするために,VoteNetの投票・分類段階に3つのコンテキストモジュールを導入する。
本手法は,3次元物体検出データセットの精度向上に有効な手法である。
論文 参考訳(メタデータ) (2020-04-12T19:10:24Z) - 1st Place Solutions for OpenImage2019 -- Object Detection and Instance
Segmentation [116.25081559037872]
この記事では,2つのチャンピオンチーム,検出トラックのMMfruit'とセグメンテーショントラックのMMfruitSeg'のソリューションについて,OpenImage Challenge 2019で紹介する。
一般に、対象検出器の場合、バックボーンの端の共有特徴は分類と回帰の両方に適さないことが知られている。
自己学習型最適特徴抽出によりオブジェクトの分類と回帰を分離するデカップリングヘッド(DH)を提案する。
論文 参考訳(メタデータ) (2020-03-17T06:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。