論文の概要: Weakly Supervised Realtime Dynamic Background Subtraction
- arxiv url: http://arxiv.org/abs/2303.02857v1
- Date: Mon, 6 Mar 2023 03:17:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:31:13.951227
- Title: Weakly Supervised Realtime Dynamic Background Subtraction
- Title(参考訳): 弱教師付きリアルタイム動的背景減算
- Authors: Fateme Bahri and Nilanjan Ray
- Abstract要約: 画素単位のグランドトラスラベルを必要とせずにバックグラウンドサブトラクションを実行できる弱教師付きフレームワークを提案する。
本フレームワークは,移動対象のない画像列をトレーニングし,2つのネットワークから構成される。
提案手法は,オンライン,リアルタイム,効率的で,最小限のフレームレベルのアノテーションを必要とする。
- 参考スコア(独自算出の注目度): 8.75682288556859
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Background subtraction is a fundamental task in computer vision with numerous
real-world applications, ranging from object tracking to video surveillance.
Dynamic backgrounds poses a significant challenge here. Supervised deep
learning-based techniques are currently considered state-of-the-art for this
task. However, these methods require pixel-wise ground-truth labels, which can
be time-consuming and expensive. In this work, we propose a weakly supervised
framework that can perform background subtraction without requiring per-pixel
ground-truth labels. Our framework is trained on a moving object-free sequence
of images and comprises two networks. The first network is an autoencoder that
generates background images and prepares dynamic background images for training
the second network. The dynamic background images are obtained by thresholding
the background-subtracted images. The second network is a U-Net that uses the
same object-free video for training and the dynamic background images as
pixel-wise ground-truth labels. During the test phase, the input images are
processed by the autoencoder and U-Net, which generate background and dynamic
background images, respectively. The dynamic background image helps remove
dynamic motion from the background-subtracted image, enabling us to obtain a
foreground image that is free of dynamic artifacts. To demonstrate the
effectiveness of our method, we conducted experiments on selected categories of
the CDnet 2014 dataset and the I2R dataset. Our method outperformed all
top-ranked unsupervised methods. We also achieved better results than one of
the two existing weakly supervised methods, and our performance was similar to
the other. Our proposed method is online, real-time, efficient, and requires
minimal frame-level annotation, making it suitable for a wide range of
real-world applications.
- Abstract(参考訳): バックグラウンドサブトラクションは、オブジェクトトラッキングからビデオ監視まで、多数の現実世界のアプリケーションによるコンピュータビジョンにおける基本的なタスクである。
ダイナミックなバックグラウンドは、ここで大きな課題となる。
教師付きディープラーニングベースの技術は、現在、このタスクの最先端と見なされている。
しかし、これらの手法には、時間と費用のかかるピクセル単位のグランドトラスラベルが必要である。
本研究では,画素単位の基底ラベルを必要とせずに背景減算が可能な弱教師付きフレームワークを提案する。
本フレームワークは,移動対象のない画像列をトレーニングし,2つのネットワークから構成される。
第1のネットワークは、背景画像を生成し、第2のネットワークをトレーニングするための動的背景画像を作成するオートエンコーダである。
背景減算画像のしきい値化により動的背景画像を得る。
第2のネットワークはU-Netで、トレーニングにオブジェクトフリーの動画と動的背景画像をピクセルワイドのグラウンドトルースラベルとして使用する。
テスト段階では、入力画像はオートエンコーダとU-Netによって処理され、それぞれ背景画像と動的背景画像を生成する。
動的背景画像は背景抽出画像から動的動きを取り除くのに役立ち、動的アーチファクトのない前景画像を得ることができる。
本手法の有効性を実証するため,CDnet 2014データセットとI2Rデータセットのカテゴリ選択実験を行った。
提案手法はトップランクの非教師なし手法を全て上回った。
また,既存の2つの弱教師付き手法の1つよりも優れた結果を得た。
提案手法はオンライン,リアルタイム,効率的であり,フレームレベルのアノテーションを最小にし,幅広い実世界のアプリケーションに適している。
関連論文リスト
- Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - BATINet: Background-Aware Text to Image Synthesis and Manipulation
Network [12.924990882126105]
生成したコンテンツが入力背景と一致する背景認識型テキスト2画像(BAT2I)タスクを解析した。
本研究では,背景認識による画像合成・操作ネットワーク (BATINet) を提案する。
我々は,CUBデータセットの質的,定量的な評価を通じて,提案モデルが他の最先端手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2023-08-11T03:22:33Z) - Background Prompting for Improved Object Depth [70.25467510077706]
単一の画像からオブジェクトの深さを推定することは、多くのビジョン、ロボティクス、グラフィックアプリケーションにとって貴重なタスクである。
本稿では,入力対象画像を学習背景に適応させる,シンプルで効果的なバックグラウンドプロンプティング手法を提案する。
複数の合成および実データセットの結果は、既存の様々な深度ネットワークに対して、実際の物体深度を一貫した改善を示す。
論文 参考訳(メタデータ) (2023-06-08T17:59:59Z) - Dynamic Background Subtraction by Generative Neural Networks [8.75682288556859]
我々はDBSGenと呼ばれる新しいバックグラウンドサブトラクション手法を提案している。
2つの生成ニューラルネットワークを使用し、1つは動的運動除去用、もう1つはバックグラウンド生成用である。
提案手法は、エンドツーエンドで教師なしの方法で最適化可能な統一されたフレームワークを有する。
論文 参考訳(メタデータ) (2022-02-10T21:29:10Z) - Background Invariant Classification on Infrared Imagery by Data
Efficient Training and Reducing Bias in CNNs [1.2891210250935146]
畳み込みニューラルネットワークは 画像中の物体を 正確に分類できます
ネットワークの注意が常にシーンのセマンティックな重要な領域にあるとは限らないことはよく知られている。
我々は、赤外線画像とRGBデータの両方におけるCNNのバイアスを低減するために、textitsplit trainingと呼ばれる2段階のトレーニング手順を提案する。
論文 参考訳(メタデータ) (2022-01-22T23:29:42Z) - Empty Cities: a Dynamic-Object-Invariant Space for Visual SLAM [6.693607456009373]
本稿では,シーンの静的な画像を得るためのデータ駆動型アプローチを提案する。
本研究では,都市環境の画像を局所化とマッピングに適したリアルな静的フレームに変換するためのエンドツーエンドのディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-15T10:31:12Z) - Deep Artifact-Free Residual Network for Single Image Super-Resolution [0.2399911126932526]
本研究では,残差学習の利点と,地中構造像を目標として用いることの利点を活かしたDAFR(Deep Artifact-Free Residual)ネットワークを提案する。
我々のフレームワークは、高品質な画像再構成に必要な高周波情報を抽出するために、ディープモデルを用いている。
実験の結果,提案手法は既存の手法に比べて定量的,定性的な画像品質を実現することがわかった。
論文 参考訳(メタデータ) (2020-09-25T20:53:55Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z) - BachGAN: High-Resolution Image Synthesis from Salient Object Layout [78.51640906030244]
本稿では、より実用的な画像生成のための新しい課題である、有能なオブジェクトレイアウトからの高品質な画像合成を提案する。
i) セグメンテーションマップ入力なしできめ細かい詳細と現実的なテクスチャを生成する方法、(ii) バックグラウンドを作成してスタンドアロンのオブジェクトにシームレスに織り込む方法である。
幻影背景表現を動的に生成することにより,高解像度画像をフォトリアリスティック・フォアグラウンドと積分背景の両方で合成することができる。
論文 参考訳(メタデータ) (2020-03-26T00:54:44Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z) - Scene Text Synthesis for Efficient and Effective Deep Network Training [62.631176120557136]
我々は,背景画像に前景オブジェクトを埋め込むことで,注釈付き訓練画像を構成する革新的な画像合成技術を開発した。
提案手法は,ディープネットワークトレーニングにおける合成画像の有用性を高める2つの重要な要素から構成される。
複数の公開データセットに対する実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2019-01-26T10:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。