論文の概要: Robust Foreground-Background Separation for Severely-Degraded Videos Using Convolutional Sparse Representation Modeling
- arxiv url: http://arxiv.org/abs/2506.17838v1
- Date: Sat, 21 Jun 2025 22:28:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.609453
- Title: Robust Foreground-Background Separation for Severely-Degraded Videos Using Convolutional Sparse Representation Modeling
- Title(参考訳): 畳み込みスパース表現モデルを用いた高分解能映像のロバスト前地上分離
- Authors: Kazuki Naganuma, Shunsuke Ono,
- Abstract要約: 本稿では、畳み込み表現(CSR)に基づく新しい前景モデルを用いた前景背景分離(FBS)手法を提案する。
2種類の劣化ビデオを用いた既存手法に比べて,本手法が優れていることを示す実験を行った。
- 参考スコア(独自算出の注目度): 8.915104993946033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a foreground-background separation (FBS) method with a novel foreground model based on convolutional sparse representation (CSR). In order to analyze the dynamic and static components of videos acquired under undesirable conditions, such as hardware, environmental, and power limitations, it is essential to establish an FBS method that can handle videos with low frame rates and various types of noise. Existing FBS methods have two limitations that prevent us from accurately separating foreground and background components from such degraded videos. First, they only capture either data-specific or general features of the components. Second, they do not include explicit models for various types of noise to remove them in the FBS process. To this end, we propose a robust FBS method with a CSR-based foreground model. This model can adaptively capture specific spatial structures scattered in imaging data. Then, we formulate FBS as a constrained multiconvex optimization problem that incorporates CSR, functions that capture general features, and explicit noise characterization functions for multiple types of noise. Thanks to these functions, our method captures both data-specific and general features to accurately separate the components from various types of noise even under low frame rates. To obtain a solution of the optimization problem, we develop an algorithm that alternately solves its two convex subproblems by newly established algorithms. Experiments demonstrate the superiority of our method over existing methods using two types of degraded videos: infrared and microscope videos.
- Abstract(参考訳): 本稿では、畳み込みスパース表現(CSR)に基づく新しい前景モデルを用いた前景背景分離(FBS)手法を提案する。
ハードウェア,環境,電力制限といった望ましくない条件下で取得したビデオの動的および静的なコンポーネントを分析するためには,フレームレートの低いビデオと様々な種類のノイズを扱えるFBS法を確立することが不可欠である。
既存のFBS手法には2つの制限があり、これらの劣化したビデオから前景と背景のコンポーネントを正確に分離することができない。
まず、コンポーネントのデータ固有の機能または一般的な機能のみをキャプチャする。
第二に、FBSプロセスでノイズを取り除くために様々な種類のノイズの明示的なモデルは含まない。
そこで本研究では,CSRに基づくフォアグラウンドモデルを用いた頑健なFBS手法を提案する。
このモデルは、画像データに散在する特定の空間構造を適応的にキャプチャすることができる。
次に,制約付き多重凸最適化問題としてFBSを定式化し,CSR,一般特徴を捉える関数,複数種類の雑音に対する明示的雑音特徴化関数を組み込んだ。
これらの機能により,本手法は,低フレームレートでも様々な種類のノイズから成分を正確に分離することのできる,データ固有機能と一般機能の両方をキャプチャする。
最適化問題の解を得るために,新たに確立されたアルゴリズムを用いて,その2つの凸部分確率を交互に解くアルゴリズムを開発した。
実験では、赤外線と顕微鏡の2種類の劣化ビデオを用いて、既存の方法よりも優れた手法を実証した。
関連論文リスト
- Denoising Diffusion Bridge Models [54.87947768074036]
拡散モデルは、プロセスを使用してデータにノイズをマッピングする強力な生成モデルである。
画像編集のような多くのアプリケーションでは、モデル入力はランダムノイズではない分布から来る。
本研究では, DDBM(Denoising Diffusion Bridge Models)を提案する。
論文 参考訳(メタデータ) (2023-09-29T03:24:24Z) - VideoFusion: Decomposed Diffusion Models for High-Quality Video
Generation [88.49030739715701]
本研究は, フレームごとのノイズを, 全フレーム間で共有されるベースノイズ, 時間軸に沿って変化する残雑音に分解することで, 拡散過程を分解する。
様々なデータセットの実験により,ビデオフュージョンと呼ばれる我々の手法が,高品質なビデオ生成において,GANベースと拡散ベースの両方の選択肢を上回ることが確認された。
論文 参考訳(メタデータ) (2023-03-15T02:16:39Z) - Coarse-to-Fine Video Denoising with Dual-Stage Spatial-Channel
Transformer [29.03463312813923]
Video Denoisingは、ノイズの多いビデオから高品質なフレームを復元することを目的としている。
既存のほとんどのアプローチでは、畳み込みニューラルネットワーク(CNN)を使用して、ノイズを元の視覚コンテンツから分離する。
粗大な映像をデノナイズするためのDual-stage Spatial-Channel Transformer (DSCT)を提案する。
論文 参考訳(メタデータ) (2022-04-30T09:01:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。