論文の概要: Autoencoder-based background reconstruction and foreground segmentation
with background noise estimation
- arxiv url: http://arxiv.org/abs/2112.08001v1
- Date: Wed, 15 Dec 2021 09:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 14:38:55.224874
- Title: Autoencoder-based background reconstruction and foreground segmentation
with background noise estimation
- Title(参考訳): 背景雑音推定を用いたオートエンコーダに基づく背景復元と前景セグメンテーション
- Authors: Bruno Sauvalle and Arnaud de La Fortelle
- Abstract要約: 本稿では,ビデオシーケンスの背景をオートエンコーダを用いて低次元多様体としてモデル化する。
提案モデルの主な特徴は、オートエンコーダが背景雑音を予測できるように訓練されており、各フレームに対してピクセル依存しきい値を計算することができることである。
提案モデルでは時間情報や動き情報を一切使用していないが,CDnet 2014 と LASIESTA データセットの非教師なしバックグラウンドサブトラクションの手法の状態を超越している。
- 参考スコア(独自算出の注目度): 1.3706331473063877
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Even after decades of research, dynamic scene background reconstruction and
foreground object segmentation are still considered as open problems due
various challenges such as illumination changes, camera movements, or
background noise caused by air turbulence or moving trees. We propose in this
paper to model the background of a video sequence as a low dimensional manifold
using an autoencoder and to compare the reconstructed background provided by
this autoencoder with the original image to compute the foreground/background
segmentation masks. The main novelty of the proposed model is that the
autoencoder is also trained to predict the background noise, which allows to
compute for each frame a pixel-dependent threshold to perform the
background/foreground segmentation. Although the proposed model does not use
any temporal or motion information, it exceeds the state of the art for
unsupervised background subtraction on the CDnet 2014 and LASIESTA datasets,
with a significant improvement on videos where the camera is moving.
- Abstract(参考訳): 何十年もの研究を経ても、照明の変化、カメラの動き、空気の乱流や木々の移動による背景ノイズなど様々な課題により、ダイナミックシーンの背景復元と前景オブジェクトのセグメンテーションは依然としてオープンな問題と見なされている。
本稿では,ビデオシーケンスの背景をオートエンコーダを用いて低次元多様体としてモデル化し,このオートエンコーダが提供する再構成背景を原画像と比較し,フォアグラウンド/バックグラウンドセグメンテーションマスクを計算する。
提案モデルの主な特徴は、オートエンコーダが背景雑音を予測できるように訓練されており、各フレームに対して画素依存閾値を計算し、背景/地上セグメンテーションを実行することができることである。
提案モデルでは時間や動きの情報を一切使用していないが,CDnet 2014 や LASIESTA データセットの教師なしバックグラウンドサブトラクションの手法を超越しており,カメラが動いているビデオに大幅な改良が加えられている。
関連論文リスト
- Beyond Image Prior: Embedding Noise Prior into Conditional Denoising Transformer [17.430622649002427]
既存の学習ベースの推論手法は、大規模なデータセットからイメージを一般化するためにモデルを訓練するのが一般的である。
本稿では,ノイズと画像の先行部分の分離を区別することによる,難読化問題に対する新たな視点を提案する。
本稿では,1つの生雑音画像から直接先行する雑音を正確に推定する局所雑音優先推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-12T08:43:11Z) - TRIP: Temporal Residual Learning with Image Noise Prior for Image-to-Video Diffusion Models [94.24861019513462]
TRIPは画像間拡散パラダイムの新しいレシピである。
静的画像から派生した画像ノイズをピボットして、フレーム間の関係推論を共同でトリガーする。
WebVid-10M、DTDB、MSR-VTTデータセットに関する大規模な実験は、TRIPの有効性を示している。
論文 参考訳(メタデータ) (2024-03-25T17:59:40Z) - Seeing Behind Dynamic Occlusions with Event Cameras [44.63007080623054]
一つの視点から背景を再構築する新しい手法を提案する。
私たちのソリューションは、従来のカメラとイベントカメラの組み合わせに初めて依存しています。
提案手法は, データセット上のPSNRにおいて, 3dBによる画像の描画方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-28T22:20:52Z) - Self-Supervised Video Object Segmentation via Cutout Prediction and
Tagging [117.73967303377381]
本稿では, 自己教師型ビデオオブジェクト(VOS)アプローチを提案する。
本手法は,対象情報と背景情報の両方を考慮した識別学習損失の定式化に基づく。
提案手法であるCT-VOSは, DAVIS-2017 と Youtube-VOS の2つの挑戦的なベンチマークにおいて,最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-04-22T17:53:27Z) - Saliency detection with moving camera via background model completion [0.5076419064097734]
本稿では,SDBMC(Saliency Detection via background model completion)という新しいフレームワークを提案する。
バックグラウンドモデラーとディープラーニングバックグラウンド/地上セグメンテーションネットワークから構成される。
バックグラウンド/地上セグメンタを採用するが、特定のビデオデータセットで事前訓練されているため、見当たらないビデオの塩分濃度も検出できる。
論文 参考訳(メタデータ) (2021-10-30T11:17:58Z) - NeuralDiff: Segmenting 3D objects that move in egocentric videos [92.95176458079047]
観測された3次元シーンを静的な背景と動的前景に分解する問題について検討する。
このタスクは、古典的な背景の減算問題を連想させるが、静的でダイナミックなシーンの全ての部分が大きな動きを生じさせるため、非常に難しい。
特に、自我中心のビデオについて検討し、動的コンポーネントを観察・移動するオブジェクトとアクターにさらに分離する。
論文 参考訳(メタデータ) (2021-10-19T12:51:35Z) - Restoration of Video Frames from a Single Blurred Image with Motion
Understanding [69.90724075337194]
単一モーション赤画像からクリーンな映像フレームを生成するための新しいフレームワークを提案する。
一つのぼやけた画像からの映像復元を逆問題として、クリーンな画像シーケンスとそれぞれの動きを潜伏要因として設定する。
提案手法は,空間トランスフォーマネットワークモジュールを用いたanblur-decoder構造に基づいている。
論文 参考訳(メタデータ) (2021-04-19T08:32:57Z) - Co-occurrence Background Model with Superpixels for Robust Background
Initialization [10.955692396874678]
超画素セグメンテーションを用いた共起背景モデルを開発した。
挑戦的ベンチマーク(SBMnet)のデータセットから得られた結果は、さまざまな課題の下でパフォーマンスを評価する。
論文 参考訳(メタデータ) (2020-03-29T02:48:41Z) - BachGAN: High-Resolution Image Synthesis from Salient Object Layout [78.51640906030244]
本稿では、より実用的な画像生成のための新しい課題である、有能なオブジェクトレイアウトからの高品質な画像合成を提案する。
i) セグメンテーションマップ入力なしできめ細かい詳細と現実的なテクスチャを生成する方法、(ii) バックグラウンドを作成してスタンドアロンのオブジェクトにシームレスに織り込む方法である。
幻影背景表現を動的に生成することにより,高解像度画像をフォトリアリスティック・フォアグラウンドと積分背景の両方で合成することができる。
論文 参考訳(メタデータ) (2020-03-26T00:54:44Z) - Deep Blind Video Super-resolution [85.79696784460887]
本稿では,ビデオSRを曖昧なカーネルモデリング手法により解くために,深層畳み込みニューラルネットワーク(CNN)モデルを提案する。
提案したCNNモデルは、動きのぼかし推定、動きの推定、遅延画像復元モジュールからなる。
提案アルゴリズムは, より微細な構造情報を用いて, より鮮明な画像を生成することができることを示す。
論文 参考訳(メタデータ) (2020-03-10T13:43:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。