論文の概要: The Background Also Matters: Background-Aware Motion-Guided Objects
Discovery
- arxiv url: http://arxiv.org/abs/2311.02633v1
- Date: Sun, 5 Nov 2023 12:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:25:28.300421
- Title: The Background Also Matters: Background-Aware Motion-Guided Objects
Discovery
- Title(参考訳): 背景も重要:背景認識型モーションガイドオブジェクト発見
- Authors: Sandra Kara, Hejer Ammar, Florian Chabot, Quoc-Cuong Pham
- Abstract要約: 本研究では,背景認識型動き誘導物体探索法を提案する。
我々は光学的流れから抽出した移動物体のマスクを活用し、学習機構を設計し、それらを真の前景に拡張する。
これにより、オブジェクト発見タスクとオブジェクト/非オブジェクト分離の合同学習が可能になる。
- 参考スコア(独自算出の注目度): 2.6442319761949875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have shown that objects discovery can largely benefit from the
inherent motion information in video data. However, these methods lack a proper
background processing, resulting in an over-segmentation of the non-object
regions into random segments. This is a critical limitation given the
unsupervised setting, where object segments and noise are not distinguishable.
To address this limitation we propose BMOD, a Background-aware Motion-guided
Objects Discovery method. Concretely, we leverage masks of moving objects
extracted from optical flow and design a learning mechanism to extend them to
the true foreground composed of both moving and static objects. The background,
a complementary concept of the learned foreground class, is then isolated in
the object discovery process. This enables a joint learning of the objects
discovery task and the object/non-object separation. The conducted experiments
on synthetic and real-world datasets show that integrating our background
handling with various cutting-edge methods brings each time a considerable
improvement. Specifically, we improve the objects discovery performance with a
large margin, while establishing a strong baseline for object/non-object
separation.
- Abstract(参考訳): 近年の研究では、オブジェクト発見はビデオデータの固有動作情報から大きく恩恵を受けることが示されている。
しかし、これらの手法は適切なバックグラウンド処理を欠き、非対象領域をランダムなセグメントに過剰に分割する。
これは、オブジェクトセグメントとノイズが区別できない教師なし設定を考えると、重要な制限である。
この制限に対処するため,背景認識型動き誘導物体探索法であるBMODを提案する。
具体的には,光学フローから抽出された移動物体のマスクを活用し,移動物体と静的物体の両方からなる真の前景まで拡張する学習機構を設計する。
学習した前景クラスの補完的な概念である背景は、オブジェクト発見プロセスの中で分離される。
これにより、オブジェクト発見タスクとオブジェクト/非オブジェクト分離の共同学習が可能になる。
合成および実世界のデータセットに関する実験では、様々な最先端メソッドとバックグラウンドハンドリングを統合することで、毎回かなりの改善が得られています。
具体的には、オブジェクト/オブジェクト分離のための強力なベースラインを確立しながら、大きなマージンでオブジェクト発見性能を向上する。
関連論文リスト
- LOCATE: Self-supervised Object Discovery via Flow-guided Graph-cut and
Bootstrapped Self-training [13.985488693082981]
動作情報と外観情報を利用して高品質な物体分割マスクを生成する自己教師型物体発見手法を提案する。
複数の標準ビデオオブジェクトセグメンテーション、画像のサリエンシ検出、オブジェクトセグメンテーションベンチマークにおいて、LOCATEと呼ばれるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-22T07:27:09Z) - Cycle Consistency Driven Object Discovery [75.60399804639403]
本研究では,シーンの各オブジェクトが異なるスロットに関連付けられなければならない制約を明示的に最適化する手法を提案する。
これらの一貫性目標を既存のスロットベースのオブジェクト中心手法に統合することにより、オブジェクト発見性能を大幅に改善することを示す。
提案手法は,オブジェクト発見を改善するだけでなく,下流タスクのよりリッチな機能も提供することを示唆している。
論文 参考訳(メタデータ) (2023-06-03T21:49:06Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [90.66285408745453]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において困難である。
ほとんどの最先端の手法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Unsupervised Object Localization: Observing the Background to Discover
Objects [4.870509580034194]
本研究では,異なるアプローチを採り,その代わりに背景を探すことを提案する。
このようにして、健全なオブジェクトは、オブジェクトが何であるべきかを強く仮定することなく、副産物として現れます。
自己教師型パッチベース表現から抽出した粗い背景マスクを備えた1ドルconv1times1$のシンプルなモデルであるFOUNDを提案する。
論文 参考訳(メタデータ) (2022-12-15T13:43:11Z) - Tackling Background Distraction in Video Object Segmentation [7.187425003801958]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオ内の特定のオブジェクトを密に追跡することを目的としている。
このタスクの主な課題の1つは、ターゲットオブジェクトに類似したように見えるバックグラウンド・トラクタの存在である。
このような混乱を抑制するための3つの新しい戦略を提案する。
我々のモデルは,リアルタイムな性能であっても,現代の最先端手法に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2022-07-14T14:25:19Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Learning to Track Object Position through Occlusion [32.458623495840904]
オクルージョンは、物体検出器やトラッカーが直面する最も重要な課題の1つである。
本稿では,領域ベースビデオオブジェクト検出装置の成功に基づくトラッキング・バイ・検出手法を提案する。
提案手法は,インターネットから収集した家具組立ビデオのデータセットにおいて,優れた結果が得られる。
論文 参考訳(メタデータ) (2021-06-20T22:29:46Z) - Visiting the Invisible: Layer-by-Layer Completed Scene Decomposition [57.088328223220934]
既存のシーン理解システムは、主にシーンの可視部分を認識し、現実世界の物理的物体の無傷な外観を無視します。
本研究では,ある場面における物体と背景の可視部分と可視部分の両方に取り組む高レベルのシーン理解システムを提案する。
論文 参考訳(メタデータ) (2021-04-12T11:37:23Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。