論文の概要: Efficient Unsupervised Video Object Segmentation Network Based on Motion
Guidance
- arxiv url: http://arxiv.org/abs/2211.05364v1
- Date: Thu, 10 Nov 2022 06:13:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 15:22:50.104964
- Title: Efficient Unsupervised Video Object Segmentation Network Based on Motion
Guidance
- Title(参考訳): 運動誘導に基づく高能率非教師なし映像セグメンテーションネットワーク
- Authors: Chao Hu, Liqiang Zhu
- Abstract要約: 本稿では,モーションガイダンスに基づく映像オブジェクト分割ネットワークを提案する。
モデルは、デュアルストリームネットワーク、モーションガイダンスモジュール、マルチスケールプログレッシブフュージョンモジュールを含む。
実験により,提案手法の優れた性能が証明された。
- 参考スコア(独自算出の注目度): 1.5736899098702974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Considerable unsupervised video object segmentation algorithms based on deep
learning have the problem of substantive model parameters and computation,
which significantly limits the application of the algorithm in practice. This
paper proposes a video object segmentation network based on motion guidance,
considerably reducing the number of model parameters and computation and
improving the video object segmentation performance. The model comprises a
dual-stream network, motion guidance module, and multi-scale progressive fusion
module. Specifically, RGB images and optical flow estimation are fed into
dual-stream network to extract object appearance features and motion features.
Then, the motion guidance module extracts the semantic information from the
motion features through local attention, which guides the appearance features
to learn rich semantic information. Finally, the multi-scale progressive fusion
module obtains the output features at each stage of the dual-stream network. It
gradually integrates the deep features into the shallow ones yet improves the
edge segmentation effect. In this paper, numerous evaluations are conducted on
three standard datasets, and the experimental results prove the superior
performance of the proposed method.
- Abstract(参考訳): ディープラーニングに基づく教師なしのビデオオブジェクトセグメンテーションアルゴリズムは、モデルパラメータと計算の問題を抱えており、実際にアルゴリズムの適用を著しく制限している。
本稿では,動き誘導に基づく映像オブジェクトセグメンテーションネットワークを提案し,モデルパラメータ数と計算量を大幅に削減し,映像オブジェクトセグメンテーション性能を向上させる。
このモデルはデュアルストリームネットワーク、モーションガイダンスモジュール、マルチスケールプログレッシブフュージョンモジュールを含む。
具体的には、RGB画像と光フロー推定をデュアルストリームネットワークに入力し、オブジェクトの外観特徴と動作特徴を抽出する。
そして、動き誘導モジュールは、局所的な注意を通して、動き特徴から意味情報を抽出することにより、外観特徴を導き、豊かな意味情報を学ぶ。
最後に、マルチスケールプログレッシブフュージョンモジュールは、デュアルストリームネットワークの各ステージにおける出力特徴を取得する。
深い特徴を浅い特徴に徐々に統合するが、エッジセグメンテーション効果は改善する。
本稿では,3つの標準データセットについて多数の評価を行い,提案手法の性能を実験的に検証した。
関連論文リスト
- Moving Object Proposals with Deep Learned Optical Flow for Video Object
Segmentation [1.551271936792451]
我々は、移動オブジェクト提案(MOP)を得るために、ニューラルネットワークの最先端アーキテクチャを提案する。
まず、教師なし畳み込みニューラルネットワーク(UnFlow)をトレーニングし、光学的フロー推定を生成する。
次に、光学フローネットの出力を、完全に畳み込みのSegNetモデルに描画する。
論文 参考訳(メタデータ) (2024-02-14T01:13:55Z) - Appearance-based Refinement for Object-Centric Motion Segmentation [95.80420062679104]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では, 正確な流量予測マスクを模範として, 簡単な選択機構を用いる。
パフォーマンスは、DAVIS、YouTubeVOS、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - EAN: Event Adaptive Network for Enhanced Action Recognition [66.81780707955852]
本稿では,映像コンテンツの動的性質を調査するための統合された行動認識フレームワークを提案する。
まず、局所的な手がかりを抽出する際に、動的スケールの時空間カーネルを生成し、多様な事象を適応的に適合させる。
第2に、これらのキューを正確にグローバルなビデオ表現に集約するために、トランスフォーマーによって選択されたいくつかの前景オブジェクト間のインタラクションのみをマイニングすることを提案する。
論文 参考訳(メタデータ) (2021-07-22T15:57:18Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Unsupervised Learning Consensus Model for Dynamic Texture Videos
Segmentation [12.462608802359936]
動的テクスチャのセグメンテーションのための効果的な教師なし学習コンセンサスモデルを提案する。
提案モデルでは,分類対象画素の周辺部における再量子化局所2値パターン(LBP)ヒストグラムの値の集合を特徴として用いた。
挑戦的なSynthDBデータセットで実施された実験は、ULCMが大幅に高速で、コーディングが簡単で、単純で、パラメータが限られていることを示している。
論文 参考訳(メタデータ) (2020-06-29T16:40:59Z) - Motion-Attentive Transition for Zero-Shot Video Object Segmentation [99.44383412488703]
ゼロショットオブジェクトセグメンテーションのためのモーション・アテンタティブ・トランジション・ネットワーク(MATNet)を提案する。
モーション・アテンティブ・トランジション (MAT) と呼ばれる非対称のアテンションブロックは、2ストリームエンコーダ内に設計されている。
このように、エンコーダは深く相互に作用し、物体の動きと外観の間の密な階層的な相互作用を可能にする。
論文 参考訳(メタデータ) (2020-03-09T16:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。