論文の概要: Hyper RPCA: Joint Maximum Correntropy Criterion and Laplacian Scale
Mixture Modeling On-the-Fly for Moving Object Detection
- arxiv url: http://arxiv.org/abs/2006.07795v1
- Date: Sun, 14 Jun 2020 04:35:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 13:05:14.168257
- Title: Hyper RPCA: Joint Maximum Correntropy Criterion and Laplacian Scale
Mixture Modeling On-the-Fly for Moving Object Detection
- Title(参考訳): hyper rpca:ジョイント・マキシム・コレントロピー基準とラプラシアンスケール混合モデルによる移動物体検出
- Authors: Zerui Shao, Yifei Pu, Jiliu Zhou, Bihan Wen and Yi Zhang
- Abstract要約: 移動物体検出は、多くの視覚関連タスクにおける自動ビデオ解析において重要である。
本稿では,高速で動く物体を検出するための新しいRPCAモデルHyper RPCAを提案する。
- 参考スコア(独自算出の注目度): 27.76948564419732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving object detection is critical for automated video analysis in many
vision-related tasks, such as surveillance tracking, video compression coding,
etc. Robust Principal Component Analysis (RPCA), as one of the most popular
moving object modelling methods, aims to separate the temporally varying (i.e.,
moving) foreground objects from the static background in video, assuming the
background frames to be low-rank while the foreground to be spatially sparse.
Classic RPCA imposes sparsity of the foreground component using l1-norm, and
minimizes the modeling error via 2-norm. We show that such assumptions can be
too restrictive in practice, which limits the effectiveness of the classic
RPCA, especially when processing videos with dynamic background, camera jitter,
camouflaged moving object, etc. In this paper, we propose a novel RPCA-based
model, called Hyper RPCA, to detect moving objects on the fly. Different from
classic RPCA, the proposed Hyper RPCA jointly applies the maximum correntropy
criterion (MCC) for the modeling error, and Laplacian scale mixture (LSM) model
for foreground objects. Extensive experiments have been conducted, and the
results demonstrate that the proposed Hyper RPCA has competitive performance
for foreground detection to the state-of-the-art algorithms on several
well-known benchmark datasets.
- Abstract(参考訳): 移動物体検出は、監視追跡、ビデオ圧縮符号化など、多くの視覚関連タスクにおける自動映像解析に不可欠である。
ロバストな主成分分析(rpca)は、最も人気のある移動物体モデリング手法の1つであり、ビデオの静的背景から時間的に変化する(移動)前景オブジェクトを分離することを目的としており、前景が空間的にスパースである場合、背景フレームが低ランクであると仮定している。
Classic RPCAは、l1-normを使用してフォアグラウンドコンポーネントのスパーシリティを課し、2-normを介してモデリングエラーを最小限にする。
このような仮定は,特に動的背景,カメラジッタ,キャモフラージュされた移動物体などの動画処理において,従来のRPCAの有効性を制限しすぎていることを示す。
本稿では,高速で動く物体を検出するための新しいRPCAモデルHyper RPCAを提案する。
従来のrpcaと異なり、提案されたhyper rpcaはモデリングエラーに対して最大correntropy criterion (mcc) と前景オブジェクトに対する laplacian scale mixture (lsm) モデルを共同で適用する。
大規模な実験が行われ、提案したHyper RPCAは、いくつかのよく知られたベンチマークデータセットの最先端アルゴリズムに対する前景検出の競合性能を持つことを示した。
関連論文リスト
- STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - Adaptive Multi-source Predictor for Zero-shot Video Object Segmentation [68.56443382421878]
ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい適応型マルチソース予測器を提案する。
静的オブジェクト予測器では、RGBソースは、同時に深度および静注ソースに変換される。
実験の結果,提案モデルは3つのZVOSベンチマークにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-18T10:19:29Z) - STDepthFormer: Predicting Spatio-temporal Depth from Video with a
Self-supervised Transformer Model [0.0]
ビデオ入力と空間的時間的注意ネットワークから,映像のフレーム列を同時に予測する自己教師型モデルを提案する。
提案モデルでは,物体形状やテクスチャなどの事前のシーン知識を,単一画像深度推定法に類似した手法で活用する。
マルチオブジェクト検出、セグメンテーション、トラッキングを含む複雑なモデルを必要とするのではなく、暗黙的にシーン内のオブジェクトの動きを予測することができる。
論文 参考訳(メタデータ) (2023-03-02T12:22:51Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Multi-Object Tracking with Deep Learning Ensemble for Unmanned Aerial
System Applications [0.0]
多目的追跡(MOT)は、軍事防衛分野における状況認識の重要な構成要素である。
本稿では,リアルタイムな状況下での騒音に対応するために,頑健なオブジェクト追跡アーキテクチャを提案する。
本稿では,遅延空間における実体軌道の予測にシーケンス・ツー・シーケンス・アーキテクチャを用いる,Deep Extended Kalman Filter (DeepEKF) と呼ばれるキネマティックな予測モデルを提案する。
論文 参考訳(メタデータ) (2021-10-05T13:50:38Z) - DAFNe: A One-Stage Anchor-Free Deep Model for Oriented Object Detection [16.21161769128316]
DAFNe: オブジェクト指向物体検出のためのワンステージアンカーフリーディープネットワークを提案する。
アンカーフリーモデルとして、DAFNeはバウンディングボックスアンカーの使用を控えることで予測複雑性を低減する。
低品質な予測に対する任意指向の有界箱に対する中心性関数の指向性を考慮した一般化を提案する。
論文 参考訳(メタデータ) (2021-09-13T17:37:20Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。