論文の概要: Unsupervised Learning Optical Flow in Multi-frame Dynamic Environment
Using Temporal Dynamic Modeling
- arxiv url: http://arxiv.org/abs/2304.07159v1
- Date: Fri, 14 Apr 2023 14:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 13:18:32.507647
- Title: Unsupervised Learning Optical Flow in Multi-frame Dynamic Environment
Using Temporal Dynamic Modeling
- Title(参考訳): 時間動的モデリングを用いた多フレーム動的環境における教師なし学習光学流れ
- Authors: Zitang Sun, Shin'ya Nishida, and Zhengbo Luo
- Abstract要約: 本稿では,動的シーンの複数フレーム列からの光フロー推定について検討する。
隣接フレームの動作先を用いて、閉鎖領域のより信頼性の高い監視を行う。
KITTI 2012、KITTI 2015、Sintel Clean、Sintel Finalデータセットの実験は、我々の手法の有効性を実証している。
- 参考スコア(独自算出の注目度): 7.111443975103329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For visual estimation of optical flow, a crucial function for many vision
tasks, unsupervised learning, using the supervision of view synthesis has
emerged as a promising alternative to supervised methods, since ground-truth
flow is not readily available in many cases. However, unsupervised learning is
likely to be unstable when pixel tracking is lost due to occlusion and motion
blur, or the pixel matching is impaired due to variation in image content and
spatial structure over time. In natural environments, dynamic occlusion or
object variation is a relatively slow temporal process spanning several frames.
We, therefore, explore the optical flow estimation from multiple-frame
sequences of dynamic scenes, whereas most of the existing unsupervised
approaches are based on temporal static models. We handle the unsupervised
optical flow estimation with a temporal dynamic model by introducing a
spatial-temporal dual recurrent block based on the predictive coding structure,
which feeds the previous high-level motion prior to the current optical flow
estimator. Assuming temporal smoothness of optical flow, we use motion priors
of the adjacent frames to provide more reliable supervision of the occluded
regions. To grasp the essence of challenging scenes, we simulate various
scenarios across long sequences, including dynamic occlusion, content
variation, and spatial variation, and adopt self-supervised distillation to
make the model understand the object's motion patterns in a prolonged dynamic
environment. Experiments on KITTI 2012, KITTI 2015, Sintel Clean, and Sintel
Final datasets demonstrate the effectiveness of our methods on unsupervised
optical flow estimation. The proposal achieves state-of-the-art performance
with advantages in memory overhead.
- Abstract(参考訳): 光フローの視覚的な推定には、多くの視覚タスク、教師なし学習、ビュー合成の監督を用いた教師あり学習が有望な代替手段として現れており、多くのケースで地対地流は容易には利用できない。
しかし、教師なし学習は、咬合や動きのぼやけによって画素追跡が失われる場合や、画像内容や空間構造の変化によってピクセルマッチングが損なわれる場合、不安定になりがちである。
自然環境において、動的閉塞または物体の変動は、複数のフレームにまたがる比較的遅い時間過程である。
したがって,動的シーンの多重フレーム列からの光フロー推定を探索する一方で,既存の教師なし手法のほとんどは時間的静的モデルに基づいている。
本稿では,現在の光流推定器に先立って,前回の高次運動を伝達する予測符号化構造に基づいて,時間的動的モデルを用いて教師なし光流推定を行う。
光流の時間的平滑さを仮定し,隣接フレームの運動前兆を用いて,オクルード領域のより信頼性の高い監視を行う。
挑戦シーンの本質を理解するため, ダイナミックオクルージョン, コンテンツ変動, 空間変動など, 長いシーケンスの様々なシナリオをシミュレートし, 自己監督蒸留を適用して, 長期間の動的環境下での物体の動きパターンをモデルに理解させる。
kitti 2012, kitti 2015, sintel clean, sintel final datasetsにおける実験は, 教師なし光フロー推定における本手法の有効性を示すものである。
この提案はメモリオーバーヘッドの利点を生かして最先端のパフォーマンスを実現する。
関連論文リスト
- Motion-prior Contrast Maximization for Dense Continuous-Time Motion Estimation [34.529280562470746]
コントラスト最大化フレームワークと非直線運動を組み合わせた新たな自己監督的損失を画素レベルの軌跡の形で導入する。
連続時間運動の高密度推定では, 合成学習モデルのゼロショット性能を29%向上する。
論文 参考訳(メタデータ) (2024-07-15T15:18:28Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Motion-aware Memory Network for Fast Video Salient Object Detection [15.967509480432266]
我々は、隣接するフレームから現在のフレームの有用な時間情報をVSODの時間枝として抽出する時空間メモリ(STM)ベースのネットワークを設計する。
符号化段階では、電流とその隣接するフレームから高次特徴を用いて高次時間特徴を生成する。
復号化段階では,空間的および時間的分岐に対する効果的な融合戦略を提案する。
提案モデルでは,光学フローなどの前処理を必要とせず,推定時に100FPS近い速度に達することができる。
論文 参考訳(メタデータ) (2022-08-01T15:56:19Z) - Dimensions of Motion: Learning to Predict a Subspace of Optical Flow
from a Single Image [50.9686256513627]
本稿では,1つのビデオフレームから,実際の瞬時光フローを含む低次元の光フローのサブスペースを予測する問題を紹介する。
いくつかの自然シーンの仮定によって、不均一性によってパラメータ化されたベースフローフィールドの集合を通して、適切なフロー部分空間を特定できることを示す。
これは、カメラの内在やポーズを必要とせずに、単眼入力ビデオを使用して教師なしの方法でこれらのタスクを学習する新しいアプローチを提供する。
論文 参考訳(メタデータ) (2021-12-02T18:52:54Z) - MoCo-Flow: Neural Motion Consensus Flow for Dynamic Humans in Stationary
Monocular Cameras [98.40768911788854]
4次元連続時間変動関数を用いて動的シーンをモデル化する表現であるMoCo-Flowを紹介する。
私たちの研究の中心には、運動フロー上の運動コンセンサス正規化によって制約される、新しい最適化の定式化がある。
複雑度の異なる人間の動きを含む複数のデータセット上でMoCo-Flowを広範囲に評価した。
論文 参考訳(メタデータ) (2021-06-08T16:03:50Z) - Unsupervised Motion Representation Enhanced Network for Action
Recognition [4.42249337449125]
連続するフレーム間の動きの表現は、ビデオの理解を大いに促進することが証明されている。
効果的な光フロー解決器であるTV-L1法は、抽出した光フローをキャッシュするために時間と費用がかかる。
UF-TSN(UF-TSN)は、軽量な非監視光フロー推定器を組み込んだ、エンドツーエンドのアクション認識手法です。
論文 参考訳(メタデータ) (2021-03-05T04:14:32Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - A Deep Temporal Fusion Framework for Scene Flow Using a Learnable Motion
Model and Occlusions [17.66624674542256]
複数フレーム構成におけるシーンフロー推定の時間的融合のための新しいデータ駆動手法を提案する。
第2のステップでは、ニューラルネットワークが共通の参照フレームから双方向のシーンフロー推定値を合成し、洗練された推定値を生成する。
このようにして、本手法は、複数のシーンフロー推定器に対して高速なマルチフレーム拡張を提供し、基礎となるデュアルフレームアプローチよりも優れている。
論文 参考訳(メタデータ) (2020-11-03T10:14:11Z) - What Matters in Unsupervised Optical Flow [51.45112526506455]
教師なし光流における鍵成分の集合を比較し解析する。
教師なしフローモデルに対する新しい改良点を多数構築する。
本稿では,従来の最先端技術よりもはるかに優れた非教師なしフロー技術を提案する。
論文 参考訳(メタデータ) (2020-06-08T19:36:26Z) - Joint Unsupervised Learning of Optical Flow and Egomotion with Bi-Level
Optimization [59.9673626329892]
エピポーラ幾何を用いた光学フローとカメラモーションのグローバルな関係を利用する。
我々は暗黙の微分を用いて、その実装とは無関係に低レベルの幾何最適化層を通してバックプロパゲーションを可能にする。
論文 参考訳(メタデータ) (2020-02-26T22:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。