論文の概要: Weakly Supervised Video Salient Object Detection
- arxiv url: http://arxiv.org/abs/2104.02391v1
- Date: Tue, 6 Apr 2021 09:48:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:06:04.069852
- Title: Weakly Supervised Video Salient Object Detection
- Title(参考訳): 弱教師付きビデオサリエント物体検出
- Authors: Wangbo Zhao and Jing Zhang and Long Li and Nick Barnes and Nian Liu
and Junwei Han
- Abstract要約: 本稿では,relabeled relabeled "fixation guided scribble annotations" に基づく最初の弱教師付きビデオサリエント物体検出モデルを提案する。
効果的なマルチモーダル学習と長期時間文脈モデリングを実現するために,「アプレンス・モーション・フュージョン・モジュール」と双方向のConvLSTMベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 79.51227350937721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant performance improvement has been achieved for fully-supervised
video salient object detection with the pixel-wise labeled training datasets,
which are time-consuming and expensive to obtain. To relieve the burden of data
annotation, we present the first weakly supervised video salient object
detection model based on relabeled "fixation guided scribble annotations".
Specifically, an "Appearance-motion fusion module" and bidirectional ConvLSTM
based framework are proposed to achieve effective multi-modal learning and
long-term temporal context modeling based on our new weak annotations. Further,
we design a novel foreground-background similarity loss to further explore the
labeling similarity across frames. A weak annotation boosting strategy is also
introduced to boost our model performance with a new pseudo-label generation
technique. Extensive experimental results on six benchmark video saliency
detection datasets illustrate the effectiveness of our solution.
- Abstract(参考訳): ピクセルワイドなラベル付きトレーニングデータセットを用いた完全教師付きビデオサルエントオブジェクト検出では,時間と費用がかかるため,大幅な性能向上が達成されている。
データアノテーションの負担を軽減するため、relabeled "fixation guided scribble annotations" に基づいた、最初の弱い教師付きビデオサルエントオブジェクト検出モデルを提案する。
具体的には,新しい弱アノテーションに基づく効果的なマルチモーダル学習と長期時間文脈モデリングを実現するために,"出現-運動融合モジュール"と双方向convlstmベースのフレームワークを提案する。
さらに,新しいフォアグラウンド・バックグラウンドの類似度損失をデザインし,フレーム間の類似度をさらに探究する。
また,新しい擬似ラベル生成手法により,モデル性能を向上させるための弱いアノテーション強化戦略も導入された。
6つのベンチマークビデオサリエンシー検出データセットの広範な実験結果から,本ソリューションの有効性が示された。
関連論文リスト
- SSVOD: Semi-Supervised Video Object Detection with Sparse Annotations [12.139451002212063]
SSVODはビデオのモーションダイナミクスを利用して、スパースアノテーション付き大規模未ラベルフレームを利用する。
提案手法は,ImageNet-VID, Epic-KITCHENS, YouTube-VISの既存手法に比べて,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2023-09-04T06:41:33Z) - Augment and Criticize: Exploring Informative Samples for Semi-Supervised
Monocular 3D Object Detection [64.65563422852568]
我々は、一般的な半教師付きフレームワークを用いて、難解な単分子3次元物体検出問題を改善する。
我々は、ラベルのないデータから豊富な情報的サンプルを探索する、新しい、シンプルで効果的なAugment and Criticize'フレームワークを紹介します。
3DSeMo_DLEと3DSeMo_FLEXと呼ばれる2つの新しい検出器は、KITTIのAP_3D/BEV(Easy)を3.5%以上改善した。
論文 参考訳(メタデータ) (2023-03-20T16:28:15Z) - Weakly Supervised Video Salient Object Detection via Point Supervision [18.952253968878356]
本稿では,点監督に基づく強力なベースラインモデルを提案する。
経時的情報でサリエンシマップを推定するために, 短期・長期の観点から, フレーム間補完情報を抽出する。
DAVISとDAVSODデータセットを緩和することにより、P-DAVISとP-DAVSODの2つの点教師付きデータセットをラベル付けする。
論文 参考訳(メタデータ) (2022-07-15T03:31:15Z) - Dynamic Supervisor for Cross-dataset Object Detection [52.95818230087297]
オブジェクト検出タスクにおけるデータセット間のトレーニングは、データセットにまたがるカテゴリ内の不整合が、完全に教師付き学習を半教師付き学習に変換するため、複雑である。
本稿では,ハードラベルとソフトラベルを併用した複数更新サブモデルを用いて,アノテーションを複数回更新する動的スーパーバイザフレームワークを提案する。
最終生成アノテーションでは、ハードラベルトレーニングとソフトラベルトレーニングを統合することで、リコールと精度が大幅に向上した。
論文 参考訳(メタデータ) (2022-04-01T03:18:46Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。