論文の概要: EV-MGRFlowNet: Motion-Guided Recurrent Network for Unsupervised
Event-based Optical Flow with Hybrid Motion-Compensation Loss
- arxiv url: http://arxiv.org/abs/2305.07853v1
- Date: Sat, 13 May 2023 07:08:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 19:18:27.374252
- Title: EV-MGRFlowNet: Motion-Guided Recurrent Network for Unsupervised
Event-based Optical Flow with Hybrid Motion-Compensation Loss
- Title(参考訳): EV-MGRFlowNet:ハイブリッド運動補償損失を有する教師なしイベントベース光流の動作誘導リカレントネットワーク
- Authors: Hao Zhuang, Xinjie Huang, Kuanxu Hou, Delei Kong, Chenming Hu, Zheng
Fang
- Abstract要約: イベントカメラは、高時間分解能や高ダイナミックレンジなどの有望な特性を提供する。
現在、既存のイベントベースのほとんどの作品では、光学フローを推定するためにディープラーニングを使用している。
本稿では,教師なしイベントベース光フロー推定パイプラインであるEV-MGRFlowNetを提案する。
- 参考スコア(独自算出の注目度): 4.266841662194981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras offer promising properties, such as high temporal resolution
and high dynamic range. These benefits have been utilized into many machine
vision tasks, especially optical flow estimation. Currently, most existing
event-based works use deep learning to estimate optical flow. However, their
networks have not fully exploited prior hidden states and motion flows.
Additionally, their supervision strategy has not fully leveraged the geometric
constraints of event data to unlock the potential of networks. In this paper,
we propose EV-MGRFlowNet, an unsupervised event-based optical flow estimation
pipeline with motion-guided recurrent networks using a hybrid
motion-compensation loss. First, we propose a feature-enhanced recurrent
encoder network (FERE-Net) which fully utilizes prior hidden states to obtain
multi-level motion features. Then, we propose a flow-guided decoder network
(FGD-Net) to integrate prior motion flows. Finally, we design a hybrid
motion-compensation loss (HMC-Loss) to strengthen geometric constraints for the
more accurate alignment of events. Experimental results show that our method
outperforms the current state-of-the-art (SOTA) method on the MVSEC dataset,
with an average reduction of approximately 22.71% in average endpoint error
(AEE). To our knowledge, our method ranks first among unsupervised
learning-based methods.
- Abstract(参考訳): イベントカメラは、高時間分解能や高ダイナミックレンジなどの有望な特性を提供する。
これらの利点は多くの機械ビジョンタスク、特に光学フロー推定に利用されてきた。
現在、ほとんどのイベントベースの作品は、ディープラーニングを使って光の流れを推定している。
しかし、それらのネットワークは以前の隠れ状態や動きの流れを完全に活用していない。
さらに、彼らの監視戦略は、ネットワークの可能性を解き放つためにイベントデータの幾何学的制約を十分に活用していない。
本稿では,ハイブリッド動作補償損失を用いた動作誘導型リカレントネットワークを備えた,教師なしイベントベース光フロー推定パイプラインEV-MGRFlowNetを提案する。
まず,従来の隠れ状態を完全に活用してマルチレベル動作特性を得る機能強化型リカレントエンコーダネットワーク(FERE-Net)を提案する。
そこで我々は,フロー誘導型デコーダネットワーク(FGD-Net)を提案する。
最後に,より正確なイベントアライメントのための幾何学的制約を強化するために,ハイブリッドモーション補償損失(hmc-loss)を設計する。
実験結果から,本手法はmvsecデータセットのsof(state-of-the-art, sota)法を上回っており,平均エンドポイント誤差(aee)は22.71%であった。
我々の知る限り,本手法は教師なし学習手法の1つである。
関連論文リスト
- ALOcc: Adaptive Lifting-based 3D Semantic Occupancy and Cost Volume-based Flow Prediction [89.89610257714006]
既存の手法は、これらのタスクの要求に応えるために高い精度を優先する。
本稿では,3次元セマンティック占有率予測とフロー推定のための一連の改善点を紹介する。
私たちの純粋な時間的アーキテクチャフレームワークであるALOccは、速度と精度の最適なトレードオフを実現しています。
論文 参考訳(メタデータ) (2024-11-12T11:32:56Z) - Optimal OnTheFly Feedback Control of Event Sensors [0.14999444543328289]
イベントベースの視覚センサは、ピクセル強度の変動が閾値を超えるとトリガされるイベントの非同期ストリームを生成する。
本稿では,過去のイベントをコントローラネットワークが解析する,アクティベーションしきい値の動的フィードバック制御手法を提案する。
本手法は,LPIPSの知覚的画像差度測定値において,固定的およびランダムに変化する閾値スキームを6~12%向上させることを示した。
論文 参考訳(メタデータ) (2024-08-23T10:49:16Z) - OFMPNet: Deep End-to-End Model for Occupancy and Flow Prediction in Urban Environment [0.0]
環境中の全ての動的オブジェクトの将来の挙動を予測するために,エンド・ツー・エンドのニューラルネットワーク手法を提案する。
本稿では, 終点誤差の大幅な低減を図った新しい時間重み付きモーションフロー損失を提案する。
論文 参考訳(メタデータ) (2024-04-02T19:37:58Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - EM-driven unsupervised learning for efficient motion segmentation [3.5232234532568376]
本稿では,光学的流れからの動作分割のためのCNNに基づく完全教師なし手法を提案する。
本研究では,移動分割ニューラルネットワークの損失関数とトレーニング手順を活用するために,期待最大化(EM)フレームワークを利用する。
提案手法は, 教師なし手法よりも優れ, 効率的である。
論文 参考訳(メタデータ) (2022-01-06T14:35:45Z) - MotionHint: Self-Supervised Monocular Visual Odometry with Motion
Constraints [70.76761166614511]
モノクローナルビジュアル・オドメトリー(VO)のための新しい自己教師型アルゴリズムMotionHintを提案する。
我々のMotionHintアルゴリズムは、既存のオープンソースSSM-VOシステムに容易に適用できる。
論文 参考訳(メタデータ) (2021-09-14T15:35:08Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z) - Implicit Euler ODE Networks for Single-Image Dehazing [33.34490764631837]
単一画像デハージング問題に対して,効率的なマルチレベル暗黙ネットワーク(MI-Net)を提案する。
提案手法は既存の手法より優れ,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-07-13T15:27:33Z) - Cascade Network with Guided Loss and Hybrid Attention for Two-view
Geometry [32.52184271700281]
本稿では,損失とFn値の直接負の相関関係を確立するためのガイド付き損失を提案する。
次に,特徴抽出のためのハイブリットアテンションブロックを提案する。
実験により,我々のネットワークは,ベンチマークデータセットの最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2020-07-11T07:44:04Z) - What Matters in Unsupervised Optical Flow [51.45112526506455]
教師なし光流における鍵成分の集合を比較し解析する。
教師なしフローモデルに対する新しい改良点を多数構築する。
本稿では,従来の最先端技術よりもはるかに優れた非教師なしフロー技術を提案する。
論文 参考訳(メタデータ) (2020-06-08T19:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。