論文の概要: Dynamic Background Subtraction by Generative Neural Networks
- arxiv url: http://arxiv.org/abs/2202.05336v1
- Date: Thu, 10 Feb 2022 21:29:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 07:57:40.179917
- Title: Dynamic Background Subtraction by Generative Neural Networks
- Title(参考訳): 生成ニューラルネットワークによる動的背景減算
- Authors: Fateme Bahri and Nilanjan Ray
- Abstract要約: 我々はDBSGenと呼ばれる新しいバックグラウンドサブトラクション手法を提案している。
2つの生成ニューラルネットワークを使用し、1つは動的運動除去用、もう1つはバックグラウンド生成用である。
提案手法は、エンドツーエンドで教師なしの方法で最適化可能な統一されたフレームワークを有する。
- 参考スコア(独自算出の注目度): 8.75682288556859
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background subtraction is a significant task in computer vision and an
essential step for many real world applications. One of the challenges for
background subtraction methods is dynamic background, which constitute
stochastic movements in some parts of the background. In this paper, we have
proposed a new background subtraction method, called DBSGen, which uses two
generative neural networks, one for dynamic motion removal and another for
background generation. At the end, the foreground moving objects are obtained
by a pixel-wise distance threshold based on a dynamic entropy map. The proposed
method has a unified framework that can be optimized in an end-to-end and
unsupervised fashion. The performance of the method is evaluated over dynamic
background sequences and it outperforms most of state-of-the-art methods. Our
code is publicly available at https://github.com/FatemeBahri/DBSGen.
- Abstract(参考訳): 背景減算はコンピュータビジョンにおいて重要なタスクであり、多くの現実世界のアプリケーションにとって不可欠なステップである。
バックグラウンドサブトラクション手法の課題の1つは動的背景であり、背景の一部で確率的な動きを構成する。
本稿では,動的運動除去のための2つの生成ニューラルネットワークと,背景生成のための2つのニューラルネットワークを用いた,新しい背景減算法dbsgenを提案する。
最後に、ダイナミックエントロピーマップに基づいて、画素幅距離閾値で前景移動物体を得る。
提案手法は、エンドツーエンドかつ教師なしの方法で最適化可能な統一フレームワークを備えている。
この手法の性能は動的背景シーケンス上で評価され、最先端手法のほとんどを上回っている。
私たちのコードはhttps://github.com/FatemeBahri/DBSGenで公開されています。
関連論文リスト
- MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - Weakly Supervised Realtime Dynamic Background Subtraction [8.75682288556859]
画素単位のグランドトラスラベルを必要とせずにバックグラウンドサブトラクションを実行できる弱教師付きフレームワークを提案する。
本フレームワークは,移動対象のない画像列をトレーニングし,2つのネットワークから構成される。
提案手法は,オンライン,リアルタイム,効率的で,最小限のフレームレベルのアノテーションを必要とする。
論文 参考訳(メタデータ) (2023-03-06T03:17:48Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - Neural Maximum A Posteriori Estimation on Unpaired Data for Motion
Deblurring [87.97330195531029]
本稿では、ニューラルネットワークをトレーニングし、失明したデータから視覚情報や鋭いコンテンツを復元するためのニューラルネットワークの最大Aポストエリオリ(NeurMAP)推定フレームワークを提案する。
提案されたNeurMAPは、既存のデブロアリングニューラルネットワークに対するアプローチであり、未使用データセット上のイメージデブロアリングネットワークのトレーニングを可能にする最初のフレームワークである。
論文 参考訳(メタデータ) (2022-04-26T08:09:47Z) - Robust Dual-Graph Regularized Moving Object Detection [11.487964611698933]
移動物体の検出とその背景と地上の分離は、多くのアプリケーションで広く利用されている。
重み付き核ノルム正規化に基づく頑健なデュアルグラフ正規化移動物体検出モデルを提案する。
論文 参考訳(メタデータ) (2022-04-25T19:40:01Z) - NeuralReshaper: Single-image Human-body Retouching with Deep Neural
Networks [50.40798258968408]
本稿では,深部生成ネットワークを用いた単一画像における人体の意味的再構成手法であるNeuralReshaperを提案する。
われわれのアプローチは、まずパラメトリックな3次元人間モデルと元の人間の画像とを適合させるフィッティング・セイン・リフォーム・パイプラインに従う。
ペアデータが存在しないデータ不足に対処するために,ネットワークをトレーニングするための新たな自己教師型戦略を導入する。
論文 参考訳(メタデータ) (2022-03-20T09:02:13Z) - NeuralDiff: Segmenting 3D objects that move in egocentric videos [92.95176458079047]
観測された3次元シーンを静的な背景と動的前景に分解する問題について検討する。
このタスクは、古典的な背景の減算問題を連想させるが、静的でダイナミックなシーンの全ての部分が大きな動きを生じさせるため、非常に難しい。
特に、自我中心のビデオについて検討し、動的コンポーネントを観察・移動するオブジェクトとアクターにさらに分離する。
論文 参考訳(メタデータ) (2021-10-19T12:51:35Z) - A Deep-Unfolded Reference-Based RPCA Network For Video
Foreground-Background Separation [86.35434065681925]
本稿では,ロバスト主成分分析(RPCA)問題に対するディープアンフォールディングに基づくネットワーク設計を提案する。
既存の設計とは異なり,本手法は連続するビデオフレームのスパース表現間の時間的相関をモデル化することに焦点を当てている。
移動MNISTデータセットを用いた実験により、提案したネットワークは、ビデオフォアグラウンドとバックグラウンドの分離作業において、最近提案された最先端のRPCAネットワークより優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T11:40:09Z) - Learning-based Tracking of Fast Moving Objects [8.8456602191903]
ビデオシーケンスのぼやけたストリークとして現れる高速移動物体の追跡は、標準トラッカーにとって難しい作業である。
本稿では,実世界の映像系列をほぼリアルタイムに追跡する最先端のディープラーニング手法を用いて,トラッキング・バイ・セグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2020-05-04T19:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。