論文の概要: Sensor-Guided Optical Flow
- arxiv url: http://arxiv.org/abs/2109.15321v1
- Date: Thu, 30 Sep 2021 17:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:49:22.443395
- Title: Sensor-Guided Optical Flow
- Title(参考訳): センサ誘導光流れ
- Authors: Matteo Poggi, Filippo Aleotti, Stefano Mattoccia
- Abstract要約: 本稿では、未知の領域や未知の領域において、より優れた精度を実現するために、外部キューを用いた光フローネットワークを誘導するフレームワークを提案する。
能動センサからの深度測定と幾何および手作り光学フローアルゴリズムを組み合わせることで,これらがどのように得られるかを示す。
- 参考スコア(独自算出の注目度): 53.295332513139925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a framework to guide an optical flow network with
external cues to achieve superior accuracy either on known or unseen domains.
Given the availability of sparse yet accurate optical flow hints from an
external source, these are injected to modulate the correlation scores computed
by a state-of-the-art optical flow network and guide it towards more accurate
predictions. Although no real sensor can provide sparse flow hints, we show how
these can be obtained by combining depth measurements from active sensors with
geometry and hand-crafted optical flow algorithms, leading to accurate enough
hints for our purpose. Experimental results with a state-of-the-art flow
network on standard benchmarks support the effectiveness of our framework, both
in simulated and real conditions.
- Abstract(参考訳): 本稿では, 既知領域と未発見領域の両方において優れた精度を達成するために, 光フローネットワークの外部手がかりを導出する枠組みを提案する。
外部ソースからのスパースで正確な光フローヒントが利用可能であることを考えると、これらは最先端の光フローネットワークによって計算された相関スコアを変調し、より正確な予測へと導くために注入される。
実際のセンサはスパースフローのヒントを提供できないが、アクティブセンサーからの深さ測定と幾何学と手作り光学フローのアルゴリズムを組み合わせることで、我々の目的に十分なヒントが得られることを示す。
標準ベンチマークにおける最先端フローネットワークを用いた実験結果は,シミュレーションと実環境の両方において,フレームワークの有効性を裏付けるものである。
関連論文リスト
- Robust Optical Flow Computation: A Higher-Order Differential Approach [0.0]
本研究は,2次テイラー級数近似の高精度化を利用して,光フロー計算のための革新的なアルゴリズムを提案する。
KITTIやMiddleburyのような光学フローベンチマークのパフォーマンスによって、アルゴリズムの機能を示す印象的な例が現れる。
論文 参考訳(メタデータ) (2024-10-12T15:20:11Z) - OCAI: Improving Optical Flow Estimation by Occlusion and Consistency Aware Interpolation [55.676358801492114]
本稿では,中間映像フレームと光フローを同時に生成することで,フレームのあいまいさを頑健に支援するOCAIを提案する。
我々は,Sintel や KITTI などの既存のベンチマークにおいて,優れた品質と光フロー精度を実証した。
論文 参考訳(メタデータ) (2024-03-26T20:23:48Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - GelFlow: Self-supervised Learning of Optical Flow for Vision-Based
Tactile Sensor Displacement Measurement [23.63445828014235]
本研究では,視覚に基づく触覚センサの変位計測において,深層学習に基づく自己監督型光フロー法を提案する。
提案する自己教師型ネットワークを,オープンソースデータセットを用いて訓練し,従来型およびディープラーニングベースの光フロー手法と比較した。
論文 参考訳(メタデータ) (2023-09-13T05:48:35Z) - Information-Based Sensor Placement for Data-Driven Estimation of
Unsteady Flows [0.0]
本稿では,データ駆動型フローフィールド推定のためのセンサ選択フレームワークを提案する。
このフレームワークは、データ駆動モデリング、定常カルマンフィルタ設計、およびセンサーの逐次選択のためのスパーシフィケーション技術を組み合わせている。
論文 参考訳(メタデータ) (2023-03-22T02:00:51Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - PCA Event-Based Otical Flow for Visual Odometry [0.0]
本稿では,イベントベース光流量推定問題に対する主成分分析手法を提案する。
提案手法の最良の変種は,ビジュアルオドメトリーのリアルタイムコンテキストを対象とし,最先端実装と比較して約2倍高速であることを示す。
論文 参考訳(メタデータ) (2021-05-08T18:30:44Z) - Learning optical flow from still images [53.295332513139925]
我々は,容易に利用可能な単一の実画像から,高精度な光学的フローアノテーションを迅速かつ多量に生成するフレームワークを提案する。
既知の動きベクトルと回転角を持つ再構成された環境でカメラを仮想的に移動させる。
我々のデータでトレーニングすると、最先端の光フローネットワークは、実データを見るのに優れた一般化を実現する。
論文 参考訳(メタデータ) (2021-04-08T17:59:58Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。