論文の概要: Sensor-Guided Optical Flow
- arxiv url: http://arxiv.org/abs/2109.15321v1
- Date: Thu, 30 Sep 2021 17:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:49:22.443395
- Title: Sensor-Guided Optical Flow
- Title(参考訳): センサ誘導光流れ
- Authors: Matteo Poggi, Filippo Aleotti, Stefano Mattoccia
- Abstract要約: 本稿では、未知の領域や未知の領域において、より優れた精度を実現するために、外部キューを用いた光フローネットワークを誘導するフレームワークを提案する。
能動センサからの深度測定と幾何および手作り光学フローアルゴリズムを組み合わせることで,これらがどのように得られるかを示す。
- 参考スコア(独自算出の注目度): 53.295332513139925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a framework to guide an optical flow network with
external cues to achieve superior accuracy either on known or unseen domains.
Given the availability of sparse yet accurate optical flow hints from an
external source, these are injected to modulate the correlation scores computed
by a state-of-the-art optical flow network and guide it towards more accurate
predictions. Although no real sensor can provide sparse flow hints, we show how
these can be obtained by combining depth measurements from active sensors with
geometry and hand-crafted optical flow algorithms, leading to accurate enough
hints for our purpose. Experimental results with a state-of-the-art flow
network on standard benchmarks support the effectiveness of our framework, both
in simulated and real conditions.
- Abstract(参考訳): 本稿では, 既知領域と未発見領域の両方において優れた精度を達成するために, 光フローネットワークの外部手がかりを導出する枠組みを提案する。
外部ソースからのスパースで正確な光フローヒントが利用可能であることを考えると、これらは最先端の光フローネットワークによって計算された相関スコアを変調し、より正確な予測へと導くために注入される。
実際のセンサはスパースフローのヒントを提供できないが、アクティブセンサーからの深さ測定と幾何学と手作り光学フローのアルゴリズムを組み合わせることで、我々の目的に十分なヒントが得られることを示す。
標準ベンチマークにおける最先端フローネットワークを用いた実験結果は,シミュレーションと実環境の両方において,フレームワークの有効性を裏付けるものである。
関連論文リスト
- Skin the sheep not only once: Reusing Various Depth Datasets to Drive
the Learning of Optical Flow [25.23550076996421]
本稿では,光学的フロー推定とステレオマッチングの幾何学的接続を活用することを提案する。
モノクラー深度データセットを仮想的不均一性によってステレオデータに変換する。
また、ステレオデータに仮想カメラの動きを導入し、垂直方向に沿って追加のフローを生成する。
論文 参考訳(メタデータ) (2023-10-03T06:56:07Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - GelFlow: Self-supervised Learning of Optical Flow for Vision-Based
Tactile Sensor Displacement Measurement [23.63445828014235]
本研究では,視覚に基づく触覚センサの変位計測において,深層学習に基づく自己監督型光フロー法を提案する。
提案する自己教師型ネットワークを,オープンソースデータセットを用いて訓練し,従来型およびディープラーニングベースの光フロー手法と比較した。
論文 参考訳(メタデータ) (2023-09-13T05:48:35Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Information-Based Sensor Placement for Data-Driven Estimation of
Unsteady Flows [0.0]
本稿では,データ駆動型フローフィールド推定のためのセンサ選択フレームワークを提案する。
このフレームワークは、データ駆動モデリング、定常カルマンフィルタ設計、およびセンサーの逐次選択のためのスパーシフィケーション技術を組み合わせている。
論文 参考訳(メタデータ) (2023-03-22T02:00:51Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - PCA Event-Based Otical Flow for Visual Odometry [0.0]
本稿では,イベントベース光流量推定問題に対する主成分分析手法を提案する。
提案手法の最良の変種は,ビジュアルオドメトリーのリアルタイムコンテキストを対象とし,最先端実装と比較して約2倍高速であることを示す。
論文 参考訳(メタデータ) (2021-05-08T18:30:44Z) - Learning optical flow from still images [53.295332513139925]
我々は,容易に利用可能な単一の実画像から,高精度な光学的フローアノテーションを迅速かつ多量に生成するフレームワークを提案する。
既知の動きベクトルと回転角を持つ再構成された環境でカメラを仮想的に移動させる。
我々のデータでトレーニングすると、最先端の光フローネットワークは、実データを見るのに優れた一般化を実現する。
論文 参考訳(メタデータ) (2021-04-08T17:59:58Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。