論文の概要: Imagine the Unseen: Occluded Pedestrian Detection via Adversarial Feature Completion
- arxiv url: http://arxiv.org/abs/2405.01311v1
- Date: Thu, 2 May 2024 14:20:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 16:24:55.038572
- Title: Imagine the Unseen: Occluded Pedestrian Detection via Adversarial Feature Completion
- Title(参考訳): 敵対的特徴の完成による歩行者検出の失敗を想像してみよう
- Authors: Shanshan Zhang, Mingqian Ji, Yang Li, Jian Yang,
- Abstract要約: そこで本稿では,歩行者の特徴を異なる閉塞パターンに整合させるため,閉鎖領域の特徴を完備する。
完成した特徴と実際の完全に見える特徴とのギャップを狭めるために,逆学習法を提案する。
本稿では,CityPersons,Caltech,CrowdHumanの各データセットに関する実験結果について報告する。
- 参考スコア(独自算出の注目度): 31.488897675973657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pedestrian detection has significantly progressed in recent years, thanks to the development of DNNs. However, detection performance at occluded scenes is still far from satisfactory, as occlusion increases the intra-class variance of pedestrians, hindering the model from finding an accurate classification boundary between pedestrians and background clutters. From the perspective of reducing intra-class variance, we propose to complete features for occluded regions so as to align the features of pedestrians across different occlusion patterns. An important premise for feature completion is to locate occluded regions. From our analysis, channel features of different pedestrian proposals only show high correlation values at visible parts and thus feature correlations can be used to model occlusion patterns. In order to narrow down the gap between completed features and real fully visible ones, we propose an adversarial learning method, which completes occluded features with a generator such that they can hardly be distinguished by the discriminator from real fully visible features. We report experimental results on the CityPersons, Caltech and CrowdHuman datasets. On CityPersons, we show significant improvements over five different baseline detectors, especially on the heavy occlusion subset. Furthermore, we show that our proposed method FeatComp++ achieves state-of-the-art results on all the above three datasets without relying on extra cues.
- Abstract(参考訳): 近年,DNNの開発により歩行者検出が著しく進展している。
しかし, 閉鎖シーンにおける検出性能は, 歩行者のクラス内ばらつきを増大させるため, 歩行者と背景ゴミの正確な分類境界を見つけるのを妨げているため, まだまだ不十分である。
クラス内ばらつきの低減の観点から, 歩行者の特徴を異なる閉塞パターンに整合させるため, 閉塞領域の特徴を完備化することを提案する。
機能補完の重要な前提は、隠された領域を見つけることである。
本分析から,異なる歩行者提案のチャネル特徴は,可視部でのみ高い相関値を示すため,閉塞パターンのモデル化に特徴相関を用いることができる。
完全可視的特徴と実完全可視的特徴とのギャップを狭めるために,実完全可視的特徴との識別が困難となるような生成物で隠蔽的特徴を完遂する逆学習法を提案する。
本稿では,CityPersons,Caltech,CrowdHumanの各データセットに関する実験結果について報告する。
CityPersonsでは,5種類のベースライン検出器,特に重閉塞サブセットに対して顕著な改善が見られた。
さらに,提案手法であるFeatComp++は,上記の3つのデータセットのすべてに対して,余分な手がかりに頼らずに最先端の結果が得られることを示す。
関連論文リスト
- Feature Completion Transformer for Occluded Person Re-identification [25.159974510754992]
咬合者の再同定(Re-ID)は,咬合者の破壊による課題である。
特徴空間に隠された部分の意味情報を暗黙的に補完する特徴補完変換器(FCFormer)を提案する。
FCFormerは優れたパフォーマンスを実現し、隠蔽されたデータセットに対してかなりのマージンで最先端の手法を上回ります。
論文 参考訳(メタデータ) (2023-03-03T01:12:57Z) - Feature Calibration Network for Occluded Pedestrian Detection [137.37275165635882]
本稿では,特徴ネットワーク(FC-Net)と呼ばれるディープラーニングフレームワークにおける特徴学習手法を提案する。
FC-Netは、歩行者の目に見える部分が選択的であり、検出に決定的であるという観察に基づいている。
CityPersonsとCaltechのデータセットの実験では、ブロックされた歩行者の検知性能が最大10%向上している。
論文 参考訳(メタデータ) (2022-12-12T05:48:34Z) - ReDFeat: Recoupling Detection and Description for Multimodal Feature
Learning [51.07496081296863]
我々は、相互重み付け戦略による多モーダル特徴学習の検出と記述の独立した制約を再定義する。
本研究では,大きな受容場を有し,学習可能な非最大抑制層を備える検出器を提案する。
我々は,特徴マッチングと画像登録タスクにおける特徴量を評価するために,クロス可視,赤外線,近赤外,合成開口レーダ画像ペアを含むベンチマークを構築した。
論文 参考訳(メタデータ) (2022-05-16T04:24:22Z) - An Objective Method for Pedestrian Occlusion Level Classification [6.125017875330933]
咬合レベル分類は、視認可能な歩行者キーポイントの識別と、新しい2次元体表面積推定法を用いて達成される。
実験結果から,提案手法は画素幅を反映していることがわかった。
画像中の歩行者の閉塞レベルは あらゆる形で有効です
自己閉塞、切り離しのような挑戦的なエッジケースを含む、排他的(Occlusion)。
歩行者を包含する。
論文 参考訳(メタデータ) (2022-05-11T11:27:41Z) - The Impact of Partial Occlusion on Pedestrian Detectability [5.606792370296115]
本研究は、部分的に閉塞された歩行者検出のための新しい客観的ベンチマークを導入する。
歩行者検出モデルの客観的特徴付けを容易にするために用いられる。
論文 参考訳(メタデータ) (2022-05-10T11:21:18Z) - STCrowd: A Multimodal Dataset for Pedestrian Perception in Crowded
Scenes [78.95447086305381]
3D空間における歩行者の正確な検出と追跡は、回転、ポーズ、スケールの大きなバリエーションのために困難である。
既存のベンチマークは2Dアノテーションのみを提供するか、あるいは低密度の歩行者分布を持つ限定的な3Dアノテーションを持つ。
混み合ったシナリオにおける歩行者認識アルゴリズムをよりよく評価するために,大規模なマルチモーダルデータセットSTCrowdを導入する。
論文 参考訳(メタデータ) (2022-04-03T08:26:07Z) - Deep Unsupervised Feature Selection by Discarding Nuisance and
Correlated Features [7.288137686773523]
現代のデータセットには、相関した特徴とニュアンスな特徴の大きなサブセットが含まれている。
多数のニュアンス特徴が存在する場合、ラプラシアンは選択された特徴の部分集合上で計算されなければならない。
相関する特徴に対処するためにオートエンコーダアーキテクチャを使用し、選択した特徴のサブセットからデータを再構成するように訓練した。
論文 参考訳(メタデータ) (2021-10-11T14:26:13Z) - Holistic Guidance for Occluded Person Re-Identification [7.662745552551165]
実世界のビデオ監視アプリケーションでは、人物の再識別(ReID)は、閉塞や検出エラーの影響に悩まされる。
個人識別ラベルにのみ依存するHG(Holistic Guidance)手法を提案する。
提案手法は, 包括的(非包括的)標本と, 包括的(非包括的)標本の包括的(包括的)な距離(DCD)分布を一致させることにより, この問題に対処する。
これに加えて、共同生成-識別的バックボーンは、デノナイジングオートエンコーダで訓練され、システムが制御される。
論文 参考訳(メタデータ) (2021-04-13T21:50:29Z) - Generative Partial Visual-Tactile Fused Object Clustering [81.17645983141773]
オブジェクトクラスタリングのためのGenerative Partial Visual-Tactile Fused(GPVTF)フレームワークを提案する。
条件付きクロスモーダルクラスタリング生成逆ネットワークを開発し、一方のモダリティ条件を他方のモダリティ上で合成する。
最後に、擬似ラベルに基づく2つのKL分割損失を用いて、対応するモダリティ固有エンコーダを更新する。
論文 参考訳(メタデータ) (2020-12-28T02:37:03Z) - AdaFuse: Adaptive Multiview Fusion for Accurate Human Pose Estimation in
the Wild [77.43884383743872]
本稿では,アダプティブなマルチビュー融合手法であるAdaFuseについて述べる。
我々は、Human3.6M、Total Capture、CMU Panopticの3つの公開データセットに対するアプローチを広く評価した。
また,大規模合成データセットOcclusion-Personを作成し,咬合関節の数値評価を行う。
論文 参考訳(メタデータ) (2020-10-26T03:19:46Z) - From Handcrafted to Deep Features for Pedestrian Detection: A Survey [148.35460817092908]
歩行者検出はコンピュータビジョンにおいて重要であるが難しい問題である。
過去10年間で、手作りの機能と深い機能によって、大幅な改善が見られた。
単スペクトル歩行者検出に加えて,多スペクトル歩行者検出も検討した。
論文 参考訳(メタデータ) (2020-10-01T14:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。