論文の概要: PSC-Net: Learning Part Spatial Co-occurrence for Occluded Pedestrian
Detection
- arxiv url: http://arxiv.org/abs/2001.09252v2
- Date: Tue, 10 Mar 2020 13:19:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 00:19:04.236713
- Title: PSC-Net: Learning Part Spatial Co-occurrence for Occluded Pedestrian
Detection
- Title(参考訳): psc-net:学習部空間共起による歩行者検出
- Authors: Jin Xie and Yanwei Pang and Hisham Cholakkal and Rao Muhammad Anwer
and Fahad Shahbaz Khan and Ling Shao
- Abstract要約: 本稿では,歩行者検出のための新しいアプローチをPSC-Netと呼ぶ。
PSC-Netは、グラフ畳み込みネットワーク(GCN)を介して、異なる歩行者体のパーツ間の共起情報と部分内共起情報の両方をキャプチャする
我々のPSC-Netは歩行者のトポロジ的構造を利用しており、空間的共起を学習するために、部分ベースのアノテーションや視覚的バウンディングボックス(VBB)情報を必要としない。
- 参考スコア(独自算出の注目度): 144.19392893747582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting pedestrians, especially under heavy occlusions, is a challenging
computer vision problem with numerous real-world applications. This paper
introduces a novel approach, termed as PSC-Net, for occluded pedestrian
detection. The proposed PSC-Net contains a dedicated module that is designed to
explicitly capture both inter and intra-part co-occurrence information of
different pedestrian body parts through a Graph Convolutional Network (GCN).
Both inter and intra-part co-occurrence information contribute towards
improving the feature representation for handling varying level of occlusions,
ranging from partial to severe occlusions. Our PSC-Net exploits the topological
structure of pedestrian and does not require part-based annotations or
additional visible bounding-box (VBB) information to learn part spatial
co-occurrence. Comprehensive experiments are performed on two challenging
datasets: CityPersons and Caltech datasets. The proposed PSC-Net achieves
state-of-the-art detection performance on both. On the heavy occluded
(\textbf{HO}) set of CityPerosns test set, our PSC-Net obtains an absolute gain
of 4.0\% in terms of log-average miss rate over the state-of-the-art with same
backbone, input scale and without using additional VBB supervision. Further,
PSC-Net improves the state-of-the-art from 37.9 to 34.8 in terms of log-average
miss rate on Caltech (\textbf{HO}) test set.
- Abstract(参考訳): 特に重厚な閉塞下で歩行者を検知することは、現実の多くの応用において難しいコンピュータビジョン問題である。
本稿では,歩行者検出のための新しいアプローチをPSC-Netと呼ぶ。
提案したPSC-Netは、グラフ畳み込みネットワーク(GCN)を介して、異なる歩行者体のパーツ間の共起情報を明示的にキャプチャする専用モジュールを含む。
部分的および部分的共起情報は、部分的から重度な咬合まで、様々な咬合レベルを扱うための特徴表現の改善に寄与する。
我々のPSC-Netは歩行者のトポロジ的構造を利用しており、空間的共起を学習するために、部分ベースのアノテーションや視覚的バウンディングボックス(VBB)情報を必要としない。
総合的な実験は、citypersonsとcaltech datasetsという2つの挑戦的なデータセットで行われている。
提案したPSC-Netは,両者の最先端検出性能を実現する。
CityPerosns テストセットのヘビーオクルード (\textbf{HO}) セットでは、当社のPSC-Net は、同じバックボーン、入力スケール、追加の VBB 監督を使わずに、平均誤差率の4.0 % の絶対ゲインを得る。
さらに、PSC-Netは、Caltech(\textbf{HO})テストセットのログ平均ミス率の観点から、最先端の37.9から34.8に改善している。
関連論文リスト
- Coupling Global Context and Local Contents for Weakly-Supervised
Semantic Segmentation [54.419401869108846]
Weakly Supervised Semantic (WSSS)モデルを提案する。
グローバルなオブジェクトコンテキストを異なる粒度空間でキャプチャするために,フレキシブルなコンテキストアグリゲーションモジュールを提案する。
局所的な細粒度を集約するために、ボトムアップパラメータ学習可能な方法で意味的に一貫した特徴融合モジュールを提案する。
論文 参考訳(メタデータ) (2023-04-18T15:29:23Z) - Improved distinct bone segmentation in upper-body CT through
multi-resolution networks [0.39583175274885335]
上半身CTと異なる骨分画では、大きな視野と計算的な3Dアーキテクチャが必要とされる。
これにより、空間的コンテキストの欠如により、細部や局所的な誤差を欠いた低解像度な結果が得られる。
本稿では,異なる解像度で動作する複数の3次元U-Netを組み合わせたエンドツーエンドのトレーニング可能なセグメンテーションネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-31T14:46:16Z) - Feature Calibration Network for Occluded Pedestrian Detection [137.37275165635882]
本稿では,特徴ネットワーク(FC-Net)と呼ばれるディープラーニングフレームワークにおける特徴学習手法を提案する。
FC-Netは、歩行者の目に見える部分が選択的であり、検出に決定的であるという観察に基づいている。
CityPersonsとCaltechのデータセットの実験では、ブロックされた歩行者の検知性能が最大10%向上している。
論文 参考訳(メタデータ) (2022-12-12T05:48:34Z) - Complementary consistency semi-supervised learning for 3D left atrial
image segmentation [9.836802392009618]
CC-Netは半教師付き左房画像セグメンテーションのためのネットワークである。
補完情報の観点から、ラベルのないデータを効率的に活用する。
CC-Netは2つのパブリックデータセットで検証されている。
論文 参考訳(メタデータ) (2022-10-04T07:50:28Z) - Camouflaged Object Detection via Context-aware Cross-level Fusion [10.942917945534678]
カモフラージュされた物体検出(COD)は、自然界に隠れている物体を識別することを目的としている。
本稿では,コンテキスト認識型クロスレベル統合ネットワーク(C2F-Net)を提案する。
C2F-Netは効果的なCODモデルであり、最先端(SOTA)モデルよりも優れています。
論文 参考訳(メタデータ) (2022-07-27T08:34:16Z) - Batch Coherence-Driven Network for Part-aware Person Re-Identification [79.33809815035127]
既存のパートアウェアの人物再識別方法は、通常、ボディ部分の検出と部分レベルの特徴抽出という2つのステップを使用する。
トレーニングフェーズとテストフェーズの両方で身体の一部をバイパスし,セマンティックに整合した機能を実現するNetworkBCDNetを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:04:13Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - Selective Convolutional Network: An Efficient Object Detector with
Ignoring Background [28.591619763438054]
Selective Convolutional Network (SCN) と呼ばれる効率的なオブジェクト検出器を導入し、意味のある情報を含む場所のみを選択的に計算する。
そこで本稿では,ネットワークの次を導くためのオーバーヘッドを無視できるような,精巧な構造を設計する。
論文 参考訳(メタデータ) (2020-02-04T10:07:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。