論文の概要: Spatio-temporal Data Augmentation for Visual Surveillance
- arxiv url: http://arxiv.org/abs/2101.09895v3
- Date: Mon, 15 Feb 2021 02:58:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:07:18.082383
- Title: Spatio-temporal Data Augmentation for Visual Surveillance
- Title(参考訳): 視覚サーベイランスのための時空間データ拡張
- Authors: Jae-Yeul Kim, Jong-Eun Ha
- Abstract要約: 視覚的監視に適したデータ拡張手法を提案し,さらなる性能向上を図る。
背景モデル画像と過去の画像を調整する2つのデータ拡張手法を提案する。
静的オブジェクトやゴーストオブジェクトなどの難しい領域において,従来の研究と比較して性能が向上することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual surveillance aims to stably detect a foreground object using a
continuous image acquired from a fixed camera. Recent deep learning methods
based on supervised learning show superior performance compared to classical
background subtraction algorithms. However, there is still a room for
improvement in static foreground, dynamic background, hard shadow, illumination
changes, camouflage, etc. In addition, most of the deep learning-based methods
operates well on environments similar to training. If the testing environments
are different from training ones, their performance degrades. As a result,
additional training on those operating environments is required to ensure a
good performance. Our previous work which uses spatio-temporal input data
consisted of a number of past images, background images and current image
showed promising results in different environments from training, although it
uses a simple U-NET structure. In this paper, we propose a data augmentation
technique suitable for visual surveillance for additional performance
improvement using the same network used in our previous work. In deep learning,
most data augmentation techniques deal with spatial-level data augmentation
techniques for use in image classification and object detection. In this paper,
we propose a new method of data augmentation in the spatio-temporal dimension
suitable for our previous work. Two data augmentation methods of adjusting
background model images and past images are proposed. Through this, it is shown
that performance can be improved in difficult areas such as static foreground
and ghost objects, compared to previous studies. Through quantitative and
qualitative evaluation using SBI, LASIESTA, and our own dataset, we show that
it gives superior performance compared to deep learning-based algorithms and
background subtraction algorithms.
- Abstract(参考訳): 視覚監視は、固定カメラから取得した連続画像を用いて前景物体を安定的に検出することを目的とする。
教師付き学習に基づく最近のディープラーニング手法は、古典的背景抽出アルゴリズムよりも優れた性能を示す。
但し、静的な前景、動的背景、堅い影、照明変更、camouflage、等の改善のための余地はまだあります。
さらに、ディープラーニングベースの手法のほとんどは、トレーニングに似た環境で動作する。
テスト環境がトレーニング環境と異なる場合、そのパフォーマンスは低下します。
その結果、優れたパフォーマンスを保証するためには、これらの運用環境に対する追加のトレーニングが必要となる。
過去の研究では,過去の画像や背景画像,現在の画像から得られた時空間入力データを用いて,訓練と異なる環境下で有望な結果を示したが,単純なu-net構造を用いていた。
本論文では,前作と同様のネットワークを用いて,視覚的監視に適したデータ拡張手法を提案し,さらなる性能向上を図った。
ディープラーニングでは、ほとんどのデータ拡張技術が、画像分類やオブジェクト検出に用いられる空間レベルのデータ拡張技術を扱う。
本論文では、これまでの研究に適した時空間次元におけるデータ拡張の新しい手法を提案する。
背景モデル画像と過去の画像を調整する2つのデータ拡張手法を提案する。
これにより,前景やゴーストオブジェクトなどの難しい領域において,従来の研究に比べて性能が向上することが示された。
sbi,lasiesta,および独自のデータセットを用いた定量的・質的評価により,深層学習に基づくアルゴリズムや背景減算アルゴリズムよりも優れた性能を示す。
関連論文リスト
- Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Deep Learning Training Procedure Augmentations [0.0]
近年のディープラーニングの進歩は、オブジェクト検出、画像分割、感情分析など、さまざまなタスクのパフォーマンスを大幅に改善している。
これは大きな成果をもたらしたが、その多くは現実世界のアプリケーションでは、ディープラーニングの他の関連する側面は無視され、不明である。
優れた性能を発揮できる一方で、収束速度、最適化ランドスケープ、対向ロバスト性に関する興味深い分析結果も提示する。
論文 参考訳(メタデータ) (2022-11-25T22:31:11Z) - An Adaptive Threshold for the Canny Edge Detection with Actor-Critic
Algorithm [0.0]
ディープラーニングに基づくオブジェクト検出アルゴリズムでは、検出能力は古典的バックグラウンドサブトラクション(BGS)アルゴリズムよりも優れている。
本稿では、時間的・空間的な情報を抽出できる前景時間融合ネットワーク(STFN)を提案する。
提案アルゴリズムは、LASIESTAとSBIデータセットの最新のディープラーニング手法よりも11.28%と18.33%高い。
論文 参考訳(メタデータ) (2022-09-19T01:15:32Z) - Augmentation Learning for Semi-Supervised Classification [13.519613713213277]
本稿では,特定のデータセットに対して最も効果的なデータ拡張ポリシーを自動選択する半教師付き学習手法を提案する。
ImageNet以外のデータセットへの拡張にポリシー学習をどのように適用できるかを示す。
論文 参考訳(メタデータ) (2022-08-03T10:06:51Z) - CoDo: Contrastive Learning with Downstream Background Invariance for
Detection [10.608660802917214]
下流背景不変性(CoDo)を用いたコントラスト学習という,オブジェクトレベルの自己教師型学習手法を提案する。
プリテキストタスクは、さまざまなバックグラウンド、特に下流データセットのインスタンス位置モデリングに集中するように変換される。
MSCOCOの実験では、共通のバックボーンを持つCoDoであるResNet50-FPNが、オブジェクト検出に強力な転送学習結果をもたらすことを示した。
論文 参考訳(メタデータ) (2022-05-10T01:26:15Z) - On Efficient Transformer and Image Pre-training for Low-level Vision [74.22436001426517]
プレトレーニングは、ハイレベルコンピュータビジョンにおける多くの最先端の芸術である。
画像事前学習の詳細な研究について述べる。
低レベルのタスクでは,事前トレーニングが極めて異なる役割を担っています。
論文 参考訳(メタデータ) (2021-12-19T15:50:48Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Improving Learning Effectiveness For Object Detection and Classification
in Cluttered Backgrounds [6.729108277517129]
本稿では,異種乱雑な背景の学習データセットを自律的に生成するフレームワークを開発する。
提案するフレームワークの学習効率は,複雑で異種な環境で改善されるべきである。
提案フレームワークの性能を実証実験により検討し,COCOデータセットを用いてトレーニングしたモデルと比較した。
論文 参考訳(メタデータ) (2020-02-27T22:28:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。