論文の概要: ZBS: Zero-shot Background Subtraction via Instance-level Background
Modeling and Foreground Selection
- arxiv url: http://arxiv.org/abs/2303.14679v1
- Date: Sun, 26 Mar 2023 10:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 18:10:22.641012
- Title: ZBS: Zero-shot Background Subtraction via Instance-level Background
Modeling and Foreground Selection
- Title(参考訳): ZBS: インスタンスレベルの背景モデリングと前景選択によるゼロショット背景サブトラクション
- Authors: Yongqi An, Xu Zhao, Tao Yu, Haiyun Guo, Chaoyang Zhao, Ming Tang,
Jinqiao Wang
- Abstract要約: ゼロショットバックグラウンドサブトラクション(ZBS)と呼ばれるゼロショットオブジェクト検出に基づく教師なしBGSアルゴリズムを提案する。
ZBSは洗練されたシナリオでうまく機能し、リッチで目に見えないカテゴリを持っている。
実験により、ZBSは、CDnet 2014データセット上で、最先端の教師なしBGSメソッドを4.70%のF-Measureで超えることを示した。
- 参考スコア(独自算出の注目度): 47.375802761626986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background subtraction (BGS) aims to extract all moving objects in the video
frames to obtain binary foreground segmentation masks. Deep learning has been
widely used in this field. Compared with supervised-based BGS methods,
unsupervised methods have better generalization. However, previous unsupervised
deep learning BGS algorithms perform poorly in sophisticated scenarios such as
shadows or night lights, and they cannot detect objects outside the pre-defined
categories. In this work, we propose an unsupervised BGS algorithm based on
zero-shot object detection called Zero-shot Background Subtraction (ZBS). The
proposed method fully utilizes the advantages of zero-shot object detection to
build the open-vocabulary instance-level background model. Based on it, the
foreground can be effectively extracted by comparing the detection results of
new frames with the background model. ZBS performs well for sophisticated
scenarios, and it has rich and extensible categories. Furthermore, our method
can easily generalize to other tasks, such as abandoned object detection in
unseen environments. We experimentally show that ZBS surpasses state-of-the-art
unsupervised BGS methods by 4.70% F-Measure on the CDnet 2014 dataset. The code
is released at https://github.com/CASIA-IVA-Lab/ZBS.
- Abstract(参考訳): 背景サブトラクション(BGS)は、ビデオフレーム内のすべての移動物体を抽出し、二元前景セグメンテーションマスクを得る。
ディープラーニングはこの分野で広く使われている。
教師なしBGS法と比較すると、教師なしBGS法はより一般化されている。
しかし、従来の教師なしのディープラーニングbgsアルゴリズムは、シャドウやナイトライトのような高度なシナリオでは性能が悪く、事前に定義されたカテゴリ外のオブジェクトを検出できない。
本研究ではゼロショット背景抽出(ZBS)と呼ばれるゼロショット物体検出に基づく教師なしBGSアルゴリズムを提案する。
提案手法は、ゼロショットオブジェクト検出の利点をフル活用して、オープン語彙のインスタンスレベルの背景モデルを構築する。
これにより、新しいフレームの検出結果と背景モデルを比較することにより、前景を効果的に抽出することができる。
ZBSは洗練されたシナリオでうまく機能し、リッチで拡張可能なカテゴリを持つ。
さらに,未確認環境におけるオブジェクト検出の放棄など,他のタスクにも容易に一般化できる。
実験により、ZBSは、CDnet 2014データセット上で、最先端の教師なしBGSメソッドを4.70%のF-Measureで超えることを示した。
コードはhttps://github.com/CASIA-IVA-Lab/ZBSで公開されている。
関連論文リスト
- Background Activation Suppression for Weakly Supervised Object
Localization and Semantic Segmentation [84.62067728093358]
弱教師付きオブジェクトローカライゼーションとセマンティックセグメンテーションは、画像レベルのラベルのみを使用してオブジェクトをローカライズすることを目的としている。
画素レベルのローカライゼーションを実現するために,フォアグラウンド予測マップを生成することで,新たなパラダイムが誕生した。
本稿では,物体の局在化学習過程に関する2つの驚くべき実験結果を示す。
論文 参考訳(メタデータ) (2023-09-22T15:44:10Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Learning Object-level Point Augmentor for Semi-supervised 3D Object
Detection [85.170578641966]
半教師付き3次元オブジェクト検出のための局所変換を行うオブジェクトレベルポイント拡張器(OPA)を提案する。
このようにして、結果のオーグメンタは、無関係なバックグラウンドではなく、オブジェクトインスタンスを強調するように導出されます。
ScanNetとSUN RGB-Dデータセットの実験は、提案したOPAが最先端の手法に対して好適に動作することを示している。
論文 参考訳(メタデータ) (2022-12-19T06:56:14Z) - Open-Set Object Detection Using Classification-free Object Proposal and
Instance-level Contrastive Learning [25.935629339091697]
オープンセットオブジェクト検出(OSOD)は、オブジェクトと背景分離、オープンセットオブジェクト分類という2つのサブタスクからなる問題を処理するための有望な方向である。
我々は,OSODの課題に対処するため,Openset RCNNを提案する。
我々のOpenset RCNNは、散らばった環境下でロボットの並べ替えタスクをサポートするオープンセットの知覚能力でロボットを支援できることを示します。
論文 参考訳(メタデータ) (2022-11-21T15:00:04Z) - An Adaptive Threshold for the Canny Edge Detection with Actor-Critic
Algorithm [0.0]
ディープラーニングに基づくオブジェクト検出アルゴリズムでは、検出能力は古典的バックグラウンドサブトラクション(BGS)アルゴリズムよりも優れている。
本稿では、時間的・空間的な情報を抽出できる前景時間融合ネットワーク(STFN)を提案する。
提案アルゴリズムは、LASIESTAとSBIデータセットの最新のディープラーニング手法よりも11.28%と18.33%高い。
論文 参考訳(メタデータ) (2022-09-19T01:15:32Z) - Learning Non-target Knowledge for Few-shot Semantic Segmentation [160.69431034807437]
本稿では,クエリ中のBG領域とDO領域を明示的にマイニングし,除去するための,NTRE(Non-Target Region Elimination)ネットワークという新しいフレームワークを提案する。
A BG Mining Module (BGMM) was proposed to extract the BG region through learning a general BG prototype。
クエリ機能からBGおよびDO情報を逐次フィルタリングするBG除去モジュールとDO除去モジュールを提案する。
論文 参考訳(メタデータ) (2022-05-10T13:52:48Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Structure-Consistent Weakly Supervised Salient Object Detection with
Local Saliency Coherence [14.79639149658596]
本論文では,スクリブルアノテーションによる弱監督オブジェクト検出のための1ラウンドのエンドツーエンドトレーニング手法を提案する。
6つのベンチマークで最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2020-12-08T12:49:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。