論文の概要: Self-supervised Sparse to Dense Motion Segmentation
- arxiv url: http://arxiv.org/abs/2008.07872v1
- Date: Tue, 18 Aug 2020 11:40:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 21:39:57.796297
- Title: Self-supervised Sparse to Dense Motion Segmentation
- Title(参考訳): モーションセグメンテーションのための自己教師付きスパース
- Authors: Amirhossein Kardoost, Kalun Ho, Peter Ochs, Margret Keuper
- Abstract要約: 単一ビデオフレームからスパース動作セグメントの密度化を学習するための自己教師付き手法を提案する。
FBMS59 と DAVIS16 でよく知られた動作セグメンテーションデータセットについて検討した。
- 参考スコア(独自算出の注目度): 13.888344214818737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Observable motion in videos can give rise to the definition of objects moving
with respect to the scene. The task of segmenting such moving objects is
referred to as motion segmentation and is usually tackled either by aggregating
motion information in long, sparse point trajectories, or by directly producing
per frame dense segmentations relying on large amounts of training data. In
this paper, we propose a self supervised method to learn the densification of
sparse motion segmentations from single video frames. While previous approaches
towards motion segmentation build upon pre-training on large surrogate datasets
and use dense motion information as an essential cue for the pixelwise
segmentation, our model does not require pre-training and operates at test time
on single frames. It can be trained in a sequence specific way to produce high
quality dense segmentations from sparse and noisy input. We evaluate our method
on the well-known motion segmentation datasets FBMS59 and DAVIS16.
- Abstract(参考訳): ビデオの観察可能な動きは、シーンに対して動くオブジェクトの定義を引き起こす可能性がある。
このような移動物体のセグメンテーションのタスクは、モーションセグメンテーションと呼ばれ、通常、長いスパースポイント軌跡のモーション情報を集約するか、あるいは大量のトレーニングデータに依存するフレームごとの密度のセグメンテーションを直接生成することによって取り組まれる。
本稿では,単一のビデオフレームからスパース動作セグメントの密度化を学習するための自己教師付き手法を提案する。
従来,大規模なサロゲートデータセットを事前学習し,高密度な動き情報を画素単位のセグメンテーションに欠かせないキューとして利用してきたが,本モデルでは事前学習は必要とせず,単一のフレーム上でテスト時に動作させる。
スパース入力やノイズ入力から高品質の高密度セグメントを生成するために、シーケンス固有の方法でトレーニングすることができる。
本手法は,fbms59とdavis16の動作セグメンテーションデータセット上で評価する。
関連論文リスト
- Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - A Simple Video Segmenter by Tracking Objects Along Axial Trajectories [30.272535124699164]
ビデオセグメンテーションは、時間とともにオブジェクトのセグメンテーションと追跡を必要とする。
入力サイズに二次的な依存があるため、高解像度の入力特徴を持つビデオセグメンテーションに自己注意を直接適用することが大きな課題となる。
Axial-VSは,物体を軸方向に沿って追跡することで映像セグメンタを強化するフレームワークである。
論文 参考訳(メタデータ) (2023-11-30T13:20:09Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - The Emergence of Objectness: Learning Zero-Shot Segmentation from Videos [59.12750806239545]
動画は移動成分によって同じシーンを異なる視点で見ることができ、適切な領域分割と領域フローは相互のビュー合成を可能にする。
モデルでは,1枚の画像に対して特徴に基づく領域分割を出力する出現経路と,1枚の画像に対して動作特徴を出力する動き経路の2つの経路から開始する。
セグメントフローに基づく視線合成誤差を最小限に抑えるためにモデルを訓練することにより、我々の外観経路と運動経路は、それぞれ低レベルのエッジや光フローから構築することなく、領域のセグメンテーションとフロー推定を自動的に学習する。
論文 参考訳(メタデータ) (2021-11-11T18:59:11Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。