論文の概要: Quaternion-Based Robust PCA for Efficient Moving Target Detection and Background Recovery in Color Videos
- arxiv url: http://arxiv.org/abs/2507.19730v1
- Date: Sat, 26 Jul 2025 01:05:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:56.080094
- Title: Quaternion-Based Robust PCA for Efficient Moving Target Detection and Background Recovery in Color Videos
- Title(参考訳): 4元系ロバストPCAによるカラー映像の高速移動目標検出と背景復元
- Authors: Liyang Wang, Shiqian Wu, Shun Fang, Qile Zhu, Jiaxin Wu, Sos Again,
- Abstract要約: 四元数ベースのRPCA(QRPCA)は、カラー画像処理のための有望な教師なしのパラダイムである。
カラービデオからターゲットのセグメンテーションと背景の復元を同時に行うための共通QRPCAフレームワークを提案する。
また、カラーランク1バッチ(CR1B)法を導入して、UQRPCA+に拡張し、最適な低ランク背景を得る。
- 参考スコア(独自算出の注目度): 6.948496559712165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving target detection is a challenging computer vision task aimed at generating accurate segmentation maps in diverse in-the-wild color videos captured by static cameras. If backgrounds and targets can be simultaneously extracted and recombined, such synthetic data can significantly enrich annotated in-the-wild datasets and enhance the generalization ability of deep models. Quaternion-based RPCA (QRPCA) is a promising unsupervised paradigm for color image processing. However, in color video processing, Quaternion Singular Value Decomposition (QSVD) incurs high computational costs, and rank-1 quaternion matrix fails to yield rank-1 color channels. In this paper, we reduce the computational complexity of QSVD to o(1) by utilizing a quaternion Riemannian manifold. Furthermor, we propose the universal QRPCA (uQRPCA) framework, which achieves a balance in simultaneously segmenting targets and recovering backgrounds from color videos. Moreover, we expand to uQRPCA+ by introducing the Color Rank-1 Batch (CR1B) method to further process and obtain the ideal low-rank background across color channels. Experiments demonstrate our uQRPCA+ achieves State Of The Art (SOTA) performance on moving target detection and background recovery tasks compared to existing open-source methods. Our implementation is publicly available on GitHub at https://github.com/Ruchtech/uQRPCA
- Abstract(参考訳): 移動目標検出は、静止カメラが捉えた様々な眼内カラービデオの正確なセグメンテーションマップを作成することを目的とした、コンピュータビジョンの課題である。
背景と対象を同時に抽出して組み換えることができれば、このような合成データは、ウィジェット内の注釈付きデータセットを著しく強化し、深層モデルの一般化能力を高めることができる。
四元数ベースのRPCA(QRPCA)は、カラー画像処理のための有望な教師なしのパラダイムである。
しかし、カラービデオ処理では、QSVD(Quarternion Singular Value Decomposition)は高い計算コストを発生させ、ランク1の四元行列はランク1の色チャネルを生成できない。
本稿では、四元数リーマン多様体を用いて、QSVDの計算複雑性をo(1)に削減する。
さらに,カラービデオからターゲットのセグメンテーションと背景の復元を同時に行うための共通QRPCA(uQRPCA)フレームワークを提案する。
さらに,カラーランキング1バッチ (CR1B) 法を導入して,色チャネル間の最適な低ランク背景を求めることで,uQRPCA+に拡張する。
uQRPCA+は、既存のオープンソースメソッドと比較して、移動対象の検出とバックグラウンドリカバリタスクにおいて、ステート・オブ・ザ・アート(SOTA)のパフォーマンスを実証する。
私たちの実装はGitHubでhttps://github.com/Ruchtech/uQRPCAで公開されています。
関連論文リスト
- SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - $L_{2,1}$-Norm Regularized Quaternion Matrix Completion Using Sparse
Representation and Quaternion QR Decomposition [7.344370881751104]
QLNM-QQR と呼ばれる四元数 Qatar Riyal 分解と四元数 $L_2,1$-norm に基づく手法を提案する。
この新しいアプローチは、大きな四元数行列のQSVDを計算する必要性を回避し、計算複雑性を低減する。
また、QLNM-QQR法の2つの改善点を挙げる:IRQLNM-QQRと呼ばれる拡張版で、反復的に再重み付けされた四元数$L_2,1$-norm最小化とQLNM-QQR-SRと呼ばれるメソッドを使用する。
論文 参考訳(メタデータ) (2023-09-07T15:08:12Z) - A New Low-Rank Learning Robust Quaternion Tensor Completion Method for
Color Video Inpainting Problem and Fast Algorithms [0.0]
本稿では、この課題を解決し、正確な回復理論を導出するために、新しいロバスト四元数テンソル完備化(RQTC)モデルを提案する。
数値実験では,カラー映像の色の汚染を排除し,映像の連続性を保ちながらカラー映像を再現する手法が提案されている。
論文 参考訳(メタデータ) (2023-06-16T07:15:38Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - Multi-Source Fusion and Automatic Predictor Selection for Zero-Shot
Video Object Segmentation [86.94578023985677]
ゼロショットビデオオブジェクトセグメンテーションのための新しいマルチソースフュージョンネットワークを提案する。
提案手法は,最先端技術に対する魅力的な性能を実現する。
論文 参考訳(メタデータ) (2021-08-11T07:37:44Z) - Quaternion higher-order singular value decomposition and its
applications in color image processing [1.1929584800629671]
HOSVDを四元数領域に一般化し、四元数に基づくHOSVD(QHOSVD)を定義する。
四元数乗算の非可換性のため、QHOSVD は HOSVD の自明な拡張ではない。
カラー画像処理における定義QHOSVDの2つの応用として、マルチフォーカスカラー画像融合とカラー画像復調について述べる。
論文 参考訳(メタデータ) (2021-01-02T03:54:56Z) - Generalized Two-Dimensional Quaternion Principal Component Analysis with
Weighting for Color Image Recognition [1.516937009186805]
カラー画像認識の最も強力な方法の1つは、二次元原理成分分析(2DQPCA)アプローチである。
本稿では、重み付けによる一般化された2DQPCA手法について、制約関数と目的関数の両方に$L_p$ノルムを課す。
実顔データベースに基づく数値計算の結果,提案手法は雑音に対して頑健であり,最先端の2DQPCAアルゴリズムと4つの顕著な深層学習法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T03:37:23Z) - Uncertainty Inspired RGB-D Saliency Detection [70.50583438784571]
本稿では,データラベリングプロセスから学習することで,RGB-D値検出の不確実性を利用した最初のフレームワークを提案する。
そこで本研究では,確率的RGB-Dサリエンシ検出を実現するために,サリエンシデータラベリングプロセスにインスパイアされた生成アーキテクチャを提案する。
6つの挑戦的RGB-Dベンチマークデータセットの結果から,サリエンシマップの分布を学習する際のアプローチの優れた性能が示された。
論文 参考訳(メタデータ) (2020-09-07T13:01:45Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Full Quaternion Representation of Color images: A Case Study on
QSVD-based Color Image Compression [0.38073142980732994]
カラー画像を四元数で表現する手法を提案する。
オートエンコーダニューラルネットワークを用いて、カラー画像をフル四元行列に変換するグローバルモデルを生成する。
論文 参考訳(メタデータ) (2020-07-19T19:13:21Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。