論文の概要: Mutual-Supervised Feature Modulation Network for Occluded Pedestrian
Detection
- arxiv url: http://arxiv.org/abs/2010.10744v1
- Date: Wed, 21 Oct 2020 03:42:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 00:17:56.247847
- Title: Mutual-Supervised Feature Modulation Network for Occluded Pedestrian
Detection
- Title(参考訳): 付加ペデストリアン検出のための相互監督型特徴変調ネットワーク
- Authors: Ye He, Chao Zhu, Xu-Cheng Yin
- Abstract要約: そこで本稿では,閉鎖型歩行者検出をより効果的に扱うために,Multual-Supervised Feature Modulation (MSFM) ネットワークを提案する。
MSFMモジュールは、同じ歩行者に対応するフルボディボックスと可視ボディボックスの類似度損失を算出する。
提案手法は,2つの課題のある歩行者データセット上での他の最先端手法と比較して,優れた性能を実現する。
- 参考スコア(独自算出の注目度): 10.497367073305806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art pedestrian detectors have achieved significant progress on
non-occluded pedestrians, yet they are still struggling under heavy occlusions.
The recent occlusion handling strategy of popular two-stage approaches is to
build a two-branch architecture with the help of additional visible body
annotations. Nonetheless, these methods still have some weaknesses. Either the
two branches are trained independently with only score-level fusion, which
cannot guarantee the detectors to learn robust enough pedestrian features. Or
the attention mechanisms are exploited to only emphasize on the visible body
features. However, the visible body features of heavily occluded pedestrians
are concentrated on a relatively small area, which will easily cause missing
detections. To address the above issues, we propose in this paper a novel
Mutual-Supervised Feature Modulation (MSFM) network, to better handle occluded
pedestrian detection. The key MSFM module in our network calculates the
similarity loss of full body boxes and visible body boxes corresponding to the
same pedestrian so that the full-body detector could learn more complete and
robust pedestrian features with the assist of contextual features from the
occluding parts. To facilitate the MSFM module, we also propose a novel
two-branch architecture, consisting of a standard full body detection branch
and an extra visible body classification branch. These two branches are trained
in a mutual-supervised way with full body annotations and visible body
annotations, respectively. To verify the effectiveness of our proposed method,
extensive experiments are conducted on two challenging pedestrian datasets:
Caltech and CityPersons, and our approach achieves superior performance
compared to other state-of-the-art methods on both datasets, especially in
heavy occlusion case.
- Abstract(参考訳): 最先端の歩行者検出装置は、非閉塞歩行者に対して大きな進歩を遂げてきたが、それでも激しい閉塞の中で苦戦している。
一般的な2段階アプローチの隠蔽処理戦略は、視覚的なボディアノテーションの追加による2段階アーキテクチャの構築である。
それでも、これらの手法にはいくつかの弱点がある。
どちらの分岐もスコアレベルの融合のみで独立に訓練されており、検知器が十分な歩行者特性を学習する保証はできない。
あるいは注意機構を利用して、目に見える身体の特徴のみを強調する。
しかし、密集した歩行者の視界の特徴は比較的小さな領域に集中しており、容易に発見できない。
以上の課題に対処するため,我々は,閉鎖された歩行者検出をより効果的に扱える,新しいMutual-Supervised Feature Modulation (MSFM) ネットワークを提案する。
我々のネットワークのキーMSFMモジュールは、同じ歩行者に対応する全体箱と可視体箱の類似性損失を計算し、全体検出器が閉塞部分からコンテキスト特徴を補助することにより、より完全で堅牢な歩行者特徴を学習できるようにする。
また,msfmモジュールを容易にするために,標準全身検出ブランチと余分に目に見えるボディ分類ブランチからなる新しい2分岐アーキテクチャを提案する。
これら2つのブランチは、それぞれフルボディアノテーションと可視ボディアノテーションで相互に監督された方法でトレーニングされる。
提案手法の有効性を検証するために,2つの難易度の高い歩行者データセット,caltech と cityperson について広範な実験を行った。
関連論文リスト
- Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - Cascaded information enhancement and cross-modal attention feature
fusion for multispectral pedestrian detection [6.167053377021009]
本稿では、主にカスケード情報強調モジュールと、モーダル間注目機能融合モジュールからなる多スペクトル歩行者検出アルゴリズムを提案する。
提案手法は,提案手法と比較して,歩行者のミス率と歩行者検出ボックスの精度が低いことを示す。
論文 参考訳(メタデータ) (2023-02-17T03:30:00Z) - Feature Calibration Network for Occluded Pedestrian Detection [137.37275165635882]
本稿では,特徴ネットワーク(FC-Net)と呼ばれるディープラーニングフレームワークにおける特徴学習手法を提案する。
FC-Netは、歩行者の目に見える部分が選択的であり、検出に決定的であるという観察に基づいている。
CityPersonsとCaltechのデータセットの実験では、ブロックされた歩行者の検知性能が最大10%向上している。
論文 参考訳(メタデータ) (2022-12-12T05:48:34Z) - ReDFeat: Recoupling Detection and Description for Multimodal Feature
Learning [51.07496081296863]
我々は、相互重み付け戦略による多モーダル特徴学習の検出と記述の独立した制約を再定義する。
本研究では,大きな受容場を有し,学習可能な非最大抑制層を備える検出器を提案する。
我々は,特徴マッチングと画像登録タスクにおける特徴量を評価するために,クロス可視,赤外線,近赤外,合成開口レーダ画像ペアを含むベンチマークを構築した。
論文 参考訳(メタデータ) (2022-05-16T04:24:22Z) - An Objective Method for Pedestrian Occlusion Level Classification [6.125017875330933]
咬合レベル分類は、視認可能な歩行者キーポイントの識別と、新しい2次元体表面積推定法を用いて達成される。
実験結果から,提案手法は画素幅を反映していることがわかった。
画像中の歩行者の閉塞レベルは あらゆる形で有効です
自己閉塞、切り離しのような挑戦的なエッジケースを含む、排他的(Occlusion)。
歩行者を包含する。
論文 参考訳(メタデータ) (2022-05-11T11:27:41Z) - Disentangle Saliency Detection into Cascaded Detail Modeling and Body
Filling [68.73040261040539]
本稿では,サリエンシ検出タスクを2つのサブタスク,すなわち詳細モデリングとボディフィリングに分解することを提案する。
具体的には、詳細モデリングは、明示的に分解された詳細ラベルの監督によってオブジェクトエッジをキャプチャすることに焦点を当てる。
ボディフィリングは、ディテールマップに充填されるボディ部分を学び、より正確なサリエンシマップを生成する。
論文 参考訳(メタデータ) (2022-02-08T19:33:02Z) - Multi-attentional Deepfake Detection [79.80308897734491]
ディープフェイクによる顔の偽造はインターネットに広まり、深刻な社会的懸念を引き起こしている。
新たなマルチアテンテーショナルディープフェイク検出ネットワークを提案する。
具体的には,1)ネットワークを異なる局所的部分へ配置するための複数の空間的注意ヘッド,2)浅い特徴の微妙なアーティファクトをズームするテクスチャ的特徴拡張ブロック,3)低レベルなテクスチャ特徴と高レベルなセマンティクス特徴をアグリゲートする,の3つの構成要素からなる。
論文 参考訳(メタデータ) (2021-03-03T13:56:14Z) - Visible Feature Guidance for Crowd Pedestrian Detection [12.8128512764041]
トレーニングと推論の両方に対して,可視的特徴ガイダンス(VFG)を提案する。
トレーニング中、可視的特徴を取り入れて、可視的有界箱と完全有界箱の同時出力を抑える。
次に,視覚的バウンディングボックス上でのみNMSを実行し,推論において最も適したフルボックスを実現する。
論文 参考訳(メタデータ) (2020-08-23T08:52:52Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - NMS by Representative Region: Towards Crowded Pedestrian Detection by
Proposal Pairing [25.050500817717108]
歩行者間の重閉塞は、標準的非最大抑圧(NMS)に大きな課題を課す
本稿では,非閉塞な可視部分を活用するために,多くの偽陽性を伴わずに冗長なボックスを効果的に除去する,新しい代表領域NMS手法を提案する。
CrowdHumanとCityPersonsのベンチマーク実験は、混雑した状況下での歩行者検出に対する提案手法の有効性を十分に検証している。
論文 参考訳(メタデータ) (2020-03-28T06:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。