論文の概要: FODVid: Flow-guided Object Discovery in Videos
- arxiv url: http://arxiv.org/abs/2307.04392v1
- Date: Mon, 10 Jul 2023 07:55:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 13:51:07.324070
- Title: FODVid: Flow-guided Object Discovery in Videos
- Title(参考訳): FODVid:ビデオのフロー誘導オブジェクト発見
- Authors: Silky Singh and Shripad Deshmukh and Mausoom Sarkar and Rishabh Jain
and Mayur Hemani and Balaji Krishnamurthy
- Abstract要約: 我々は、個々の複雑さに過度に適合しないように、一般化可能なソリューションを構築することに注力する。
教師なしの環境でビデオオブジェクト(VOS)を解決するために,セグメント出力の導出に基づく新しいパイプライン(FODVid)を提案する。
- 参考スコア(独自算出の注目度): 12.792602427704395
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Segmentation of objects in a video is challenging due to the nuances such as
motion blurring, parallax, occlusions, changes in illumination, etc. Instead of
addressing these nuances separately, we focus on building a generalizable
solution that avoids overfitting to the individual intricacies. Such a solution
would also help us save enormous resources involved in human annotation of
video corpora. To solve Video Object Segmentation (VOS) in an unsupervised
setting, we propose a new pipeline (FODVid) based on the idea of guiding
segmentation outputs using flow-guided graph-cut and temporal consistency.
Basically, we design a segmentation model incorporating intra-frame appearance
and flow similarities, and inter-frame temporal continuation of the objects
under consideration. We perform an extensive experimental analysis of our
straightforward methodology on the standard DAVIS16 video benchmark. Though
simple, our approach produces results comparable (within a range of ~2 mIoU) to
the existing top approaches in unsupervised VOS. The simplicity and
effectiveness of our technique opens up new avenues for research in the video
domain.
- Abstract(参考訳): 動画内のオブジェクトのセグメンテーションは、動きのぼやけ、パララックス、オクルージョン、照明の変化などのニュアンスのために困難である。
これらのニュアンスを別々に扱うのではなく、個々の複雑さに過剰に適合しない汎用的なソリューションを構築することに重点を置いています。
このようなソリューションは、ビデオコーポラの人間的アノテーションに関わる膨大なリソースの節約にも役立ちます。
教師なし環境でビデオオブジェクトセグメンテーション(VOS)を解決するため,フロー誘導グラフカットと時間一貫性を用いたセグメント出力の導出に基づく新しいパイプライン(FODVid)を提案する。
基本的に,フレーム内外観とフローの類似性,および対象物のフレーム間時間継続性を考慮したセグメンテーションモデルを設計する。
標準的なDAVIS16ビデオベンチマークにおいて,本手法の実験的解析を行った。
単純ではあるが、我々の手法は、教師なしVOSにおける既存のトップアプローチに匹敵する結果(約2mIoUの範囲)を生成する。
この技術の単純さと有効性は、ビデオ領域の研究の新たな道を開く。
関連論文リスト
- Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Betrayed by Attention: A Simple yet Effective Approach for Self-supervised Video Object Segmentation [76.68301884987348]
自己教師型ビデオオブジェクトセグメンテーション(VOS)のための簡易かつ効果的なアプローチを提案する。
我々の重要な洞察は、DINO-pretrained Transformerに存在する構造的依存関係を利用して、ビデオ内の堅牢な時間分割対応を確立することである。
提案手法は,複数の教師なしVOSベンチマークにまたがる最先端性能を実証し,複雑な実世界のマルチオブジェクトビデオセグメンテーションタスクに優れることを示す。
論文 参考訳(メタデータ) (2023-11-29T18:47:17Z) - Tsanet: Temporal and Scale Alignment for Unsupervised Video Object
Segmentation [21.19216164433897]
Unsupervised Video Object (UVOS) は、手動による指示なしに、ビデオ内の顕著なオブジェクトをセグメンテーションする難しいタスクを指す。
上記の2つのアプローチの限界に対処できるUVOSの新しいフレームワークを提案する。
DAVIS 2016 と FBMS という公開ベンチマークデータセットを用いて,本手法の有効性を実証した実験結果を示す。
論文 参考訳(メタデータ) (2023-03-08T04:59:43Z) - Tag-Based Attention Guided Bottom-Up Approach for Video Instance
Segmentation [83.13610762450703]
ビデオインスタンスは、ビデオシーケンス全体にわたるオブジェクトインスタンスのセグメンテーションと追跡を扱う、基本的なコンピュータビジョンタスクである。
そこで本研究では,従来の領域プロモーター方式ではなく,画素レベルの粒度でインスタンスマスク予測を実現するための,単純なエンドツーエンドのボトムアップ方式を提案する。
提案手法は,YouTube-VIS と DAVIS-19 のデータセット上での競合結果を提供する。
論文 参考訳(メタデータ) (2022-04-22T15:32:46Z) - Learning Video Salient Object Detection Progressively from Unlabeled
Videos [8.224670666756193]
ビデオアノテーションを使わずに、適切なオブジェクトを連続的に特定・セグメントするプログレッシブフレームワークによる新しいVSOD手法を提案する。
具体的には, 隣接フレームにおける高精度な位置ラベルの生成と有意な物体の追跡を行うディープテンポラルな位置ラベルを生成するアルゴリズムを提案する。
DAVIS, FBMS, ViSal, VOS, DAVSODの5つの公開ベンチマークによる実験結果から, 提案手法は完全教師付き手法と競合し, 最先端・非教師付き手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-04-05T06:12:45Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Box Supervised Video Segmentation Proposal Network [3.384080569028146]
本稿では,本質的な映像特性を生かしたボックス管理型映像オブジェクト分割提案ネットワークを提案する。
提案手法は,最先端の自己監督ベンチマークを16.4%,6.9%上回る性能を示した。
提案手法のロバスト性を実証し,データセットに対する広範なテストと改善を行った。
論文 参考訳(メタデータ) (2022-02-14T20:38:28Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。