論文の概要: Betrayed by Motion: Camouflaged Object Discovery via Motion Segmentation
- arxiv url: http://arxiv.org/abs/2011.11630v1
- Date: Mon, 23 Nov 2020 18:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 02:39:28.086742
- Title: Betrayed by Motion: Camouflaged Object Discovery via Motion Segmentation
- Title(参考訳): モーションで撮影:モーションセグメンテーションによるカモフラージュ物体発見
- Authors: Hala Lamdouar, Charig Yang, Weidi Xie, Andrew Zisserman
- Abstract要約: 本研究では,映像中のキャモフラージュされた物体を検出する計算アーキテクチャを設計し,特に物体のセグメンテーションを行うために動作情報を活用する。
最初の大規模な移動カモフラージュ動物(MoCA)ビデオデータセットを収集した。
提案手法の有効性を実証し,動作のみに依存して,DAVIS2016上の教師なしセグメンテーションプロトコル上での競合性能を実現する。
- 参考スコア(独自算出の注目度): 93.22300146395536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The objective of this paper is to design a computational architecture that
discovers camouflaged objects in videos, specifically by exploiting motion
information to perform object segmentation. We make the following three
contributions: (i) We propose a novel architecture that consists of two
essential components for breaking camouflage, namely, a differentiable
registration module to align consecutive frames based on the background, which
effectively emphasises the object boundary in the difference image, and a
motion segmentation module with memory that discovers the moving objects, while
maintaining the object permanence even when motion is absent at some point.
(ii) We collect the first large-scale Moving Camouflaged Animals (MoCA) video
dataset, which consists of over 140 clips across a diverse range of animals (67
categories). (iii) We demonstrate the effectiveness of the proposed model on
MoCA, and achieve competitive performance on the unsupervised segmentation
protocol on DAVIS2016 by only relying on motion.
- Abstract(参考訳): 本研究の目的は,映像中の迷彩物体を,特に動き情報を利用して物体のセグメンテーションを行うコンピュータアーキテクチャを設計することである。
私たちは以下の3つの貢献をします
一) カモフラージュを破るために必要な2つの重要な要素、すなわち、差分画像のオブジェクト境界を効果的に強調する背景に基づいて連続したフレームを整列する微分可能な登録モジュールと、ある時点で動きがない場合でもオブジェクトの永続性を維持しつつ、移動物体を検出するメモリを有するモーションセグメンテーションモジュールとからなる、新しいアーキテクチャを提案する。
(II) 様々な種類の動物(67種)に140本以上のクリップを収録した,最初の大規模移動カモフラージュ動物(MoCA)ビデオデータセットを収集した。
3) 提案手法の有効性を実証し, 動作のみに依存して, DAVIS2016における教師なしセグメンテーションプロトコル上での競争性能を実現する。
関連論文リスト
- Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Motion Segmentation from a Moving Monocular Camera [3.115818438802931]
我々は、点軌跡法と光フロー法という、単眼運動分割手法の2つの一般的な分岐を生かしている。
我々は異なるシーン構造で様々な複雑な物体の動きを同時にモデル化することができる。
提案手法は,KT3DMoSegデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2023-09-24T22:59:05Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Motion-Attentive Transition for Zero-Shot Video Object Segmentation [99.44383412488703]
ゼロショットオブジェクトセグメンテーションのためのモーション・アテンタティブ・トランジション・ネットワーク(MATNet)を提案する。
モーション・アテンティブ・トランジション (MAT) と呼ばれる非対称のアテンションブロックは、2ストリームエンコーダ内に設計されている。
このように、エンコーダは深く相互に作用し、物体の動きと外観の間の密な階層的な相互作用を可能にする。
論文 参考訳(メタデータ) (2020-03-09T16:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。