論文の概要: Real-Time Semantic Background Subtraction
- arxiv url: http://arxiv.org/abs/2002.04993v3
- Date: Wed, 27 May 2020 08:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 19:56:22.774796
- Title: Real-Time Semantic Background Subtraction
- Title(参考訳): リアルタイム意味的背景減算
- Authors: Anthony Cioppa and Marc Van Droogenbroeck and Marc Braham
- Abstract要約: RT-SBS(Real-Time Semantic background Subtraction)と呼ばれる新しいバックグラウンドサブトラクションアルゴリズムを提案する。
RT-SBSは、リアルタイムバックグラウンドサブトラクションアルゴリズムと高品質なセマンティック情報とを効果的に組み合わせ、各ピクセルに対して独立して遅い速度で提供することができる。
RT-SBSとViBeが組み合わさって、リアルタイムなバックグラウンドサブトラクションアルゴリズムのための新しい最先端技術が確立され、非リアルタイムな最先端技術と競合することを示します。
- 参考スコア(独自算出の注目度): 12.785625100308438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic background subtraction SBS has been shown to improve the performance
of most background subtraction algorithms by combining them with semantic
information, derived from a semantic segmentation network. However, SBS
requires high-quality semantic segmentation masks for all frames, which are
slow to compute. In addition, most state-of-the-art background subtraction
algorithms are not real-time, which makes them unsuitable for real-world
applications. In this paper, we present a novel background subtraction
algorithm called Real-Time Semantic Background Subtraction (denoted RT-SBS)
which extends SBS for real-time constrained applications while keeping similar
performances. RT-SBS effectively combines a real-time background subtraction
algorithm with high-quality semantic information which can be provided at a
slower pace, independently for each pixel. We show that RT-SBS coupled with
ViBe sets a new state of the art for real-time background subtraction
algorithms and even competes with the non real-time state-of-the-art ones. Note
that we provide python CPU and GPU implementations of RT-SBS at
https://github.com/cioppaanthony/rt-sbs.
- Abstract(参考訳): 意味的背景減算sbは、意味的セグメンテーションネットワークから派生した意味的情報と組み合わせて、ほとんどの背景減算アルゴリズムの性能を向上させることが示されている。
しかし、SBSは全てのフレームに対して高品質なセマンティックセグメンテーションマスクを必要とし、計算が遅い。
さらに、最先端のバックグラウンド減算アルゴリズムの多くはリアルタイムではないため、現実のアプリケーションには適さない。
本稿では,リアルタイム制約されたアプリケーションに対して,同様の性能を維持しながらSBSを拡張したReal-Time Semantic background Subtraction(RT-SBS)という新しいバックグラウンドサブトラクションアルゴリズムを提案する。
RT-SBSは、リアルタイムバックグラウンドサブトラクションアルゴリズムと高品質なセマンティック情報とを効果的に組み合わせ、各ピクセルに対して独立して遅い速度で提供することができる。
vibeと組み合わされたrt-sbは、リアルタイムのバックグラウンド減算アルゴリズムの新しい状態を設定し、非リアルタイムの最先端技術とさえ競合する。
RT-SBSのpython CPUとGPU実装はhttps://github.com/cioppaanthony/rt-sbsで提供しています。
関連論文リスト
- RTFormer: Efficient Design for Real-Time Semantic Segmentation with
Transformer [63.25665813125223]
本稿では,リアルタイムセマンティックセグメンテーションのための効率的なデュアルレゾリューション変換器RTFormerを提案する。
CNNベースのモデルよりもパフォーマンスと効率のトレードオフが優れている。
主要なベンチマーク実験では,提案したRTFormerの有効性を示す。
論文 参考訳(メタデータ) (2022-10-13T16:03:53Z) - Distortion-Aware Network Pruning and Feature Reuse for Real-time Video
Segmentation [49.17930380106643]
本稿では,リアルタイム視覚タスクのスキップ接続によるアーキテクチャの高速化を目的とした新しいフレームワークを提案する。
具体的には、各フレームの到着時に、前のフレームから特徴を変換し、特定の空間的ビンで再利用する。
次に、現在のフレームの領域におけるバックボーンネットワークの部分計算を行い、現在のフレームと前のフレームの時間差をキャプチャする。
論文 参考訳(メタデータ) (2022-06-20T07:20:02Z) - BlockCopy: High-Resolution Video Processing with Block-Sparse Feature
Propagation and Online Policies [57.62315799929681]
BlockCopyは、事前訓練されたフレームベースのCNNを高速化して、より効率的にビデオを処理するスキームである。
軽量ポリシーネットワークは、画像内の重要領域を決定し、選択された領域のみに操作を適用する。
非選択領域の特徴は、単に前のフレームからコピーされ、計算数とレイテンシーが減少する。
論文 参考訳(メタデータ) (2021-08-20T21:16:01Z) - Efficient Spatio-Temporal Recurrent Neural Network for Video Deblurring [39.63844562890704]
リアルタイムの劣化は、空間的および時間的に変化するぼやけ自体の複雑さのため、依然として困難な課題である。
我々はRNN細胞に残留密度ブロックを適用して、現在のフレームの空間的特徴を効率的に抽出する。
我々は、コ軸ビームスプリッタ取得システムを用いて、ペア/シャープのビデオクリップを収集し、新しいデータセット(BSD)をコミュニティにコントリビュートする。
論文 参考訳(メタデータ) (2021-06-30T12:53:02Z) - ABCNet: Attentive Bilateral Contextual Network for Efficient Semantic
Segmentation of Fine-Resolution Remote Sensing Images [5.753245638190626]
リモートセンシング画像のセマンティックセグメンテーションは、精密農業、環境保護、経済評価において重要な役割を担っている。
空間分解能の増加によって引き起こされる複雑な情報のため、最先端のディープラーニングアルゴリズムは通常、セグメンテーションに複雑なネットワークアーキテクチャを使用する。
本稿では,2枝の畳み込みニューラルネットワーク(CNN)であるABCNetを提案する。
論文 参考訳(メタデータ) (2021-02-04T10:43:08Z) - Spatiotemporal Graph Neural Network based Mask Reconstruction for Video
Object Segmentation [70.97625552643493]
本稿では,クラス非依存オブジェクトを半教師あり設定でセグメント化するタスクについて述べる。
提案手法のすべてを利用して局所的なコンテキストを捕捉する新しいグラフニューラルネットワーク(TG-Net)を提案する。
論文 参考訳(メタデータ) (2020-12-10T07:57:44Z) - Exploring Sparsity in Image Super-Resolution for Efficient Inference [43.186057426839454]
我々はスパースマスクを学習して冗長計算を行うためのスパースマスクSR(SMSR)ネットワークを開発した。
我々のSMSRは41%/33%/27%のFLOPをx2/3/4SRで削減し,最先端の性能を実現している。
論文 参考訳(メタデータ) (2020-06-17T02:08:26Z) - Temporally Distributed Networks for Fast Video Semantic Segmentation [64.5330491940425]
TDNetは、高速かつ正確なビデオセマンティックセグメンテーションのために設計された時間分散ネットワークである。
我々は,深層CNNの特定の高層層から抽出した特徴を,より浅いサブネットワークから抽出した特徴の合成により近似することができることを観察した。
Cityscapes, CamVid, NYUD-v2 の実験により,本手法が高速かつ低レイテンシで最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:43:32Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - FarSee-Net: Real-Time Semantic Segmentation by Efficient Multi-scale
Context Aggregation and Feature Space Super-resolution [14.226301825772174]
Cascaded Factorized Atrous Space Pyramid Pooling (CF-ASPP) と呼ばれる新しい効率的なモジュールについて紹介する。
これは畳み込みニューラルネットワーク(CNN)のための軽量なカスケード構造であり、コンテキスト情報を効率的に活用する。
我々は1枚のNivida Titan X (Maxwell) GPUカードでCityscapesテストセットの84fpsで68.4% mIoUを達成した。
論文 参考訳(メタデータ) (2020-03-09T03:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。