論文の概要: Optical Flow for Autonomous Driving: Applications, Challenges and
Improvements
- arxiv url: http://arxiv.org/abs/2301.04422v1
- Date: Wed, 11 Jan 2023 12:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 17:36:44.928087
- Title: Optical Flow for Autonomous Driving: Applications, Challenges and
Improvements
- Title(参考訳): 自律運転のためのオプティカルフロー:応用,課題,改善
- Authors: Shihao Shen, Louis Kerofsky and Senthil Yogamani
- Abstract要約: 学習に基づく光フローアルゴリズムを改善するためのトレーニング戦略を提案し,評価する。
合成データを訓練しながら、このモデルは現実世界の魚眼データに一般化する強力な能力を示す。
低光域における既存手法の性能を大幅に向上させる,新しい汎用的な半教師付きフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.9023847175654602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical flow estimation is a well-studied topic for automated driving
applications. Many outstanding optical flow estimation methods have been
proposed, but they become erroneous when tested in challenging scenarios that
are commonly encountered. Despite the increasing use of fisheye cameras for
near-field sensing in automated driving, there is very limited literature on
optical flow estimation with strong lens distortion. Thus we propose and
evaluate training strategies to improve a learning-based optical flow algorithm
by leveraging the only existing fisheye dataset with optical flow ground truth.
While trained with synthetic data, the model demonstrates strong capabilities
to generalize to real world fisheye data. The other challenge neglected by
existing state-of-the-art algorithms is low light. We propose a novel, generic
semi-supervised framework that significantly boosts performances of existing
methods in such conditions. To the best of our knowledge, this is the first
approach that explicitly handles optical flow estimation in low light.
- Abstract(参考訳): 光フロー推定は、自動運転アプリケーションでよく研究されているトピックである。
多くの優れた光学フロー推定法が提案されているが、一般に遭遇する困難なシナリオでテストすると誤用される。
自動走行における近距離センシングにおける魚眼カメラの利用は増加しているが、強いレンズ歪みを伴う光学フロー推定に関する文献は非常に限られている。
そこで本研究では,既存の魚眼データセットとオプティカルフローグラウンド真理のみを活用して,学習ベースのオプティカルフローアルゴリズムを改善するためのトレーニング戦略を提案し,評価する。
合成データを訓練しながら、モデルは実世界の魚眼データに一般化する強力な能力を示す。
既存の最先端アルゴリズムによって無視されるもう1つの課題は、低照度である。
本稿では,既存の手法の性能を大幅に向上させる,新しい汎用的な半教師付きフレームワークを提案する。
私たちの知る限りでは、これは低光度での光フロー推定を明示的に扱う最初のアプローチです。
関連論文リスト
- Motion-prior Contrast Maximization for Dense Continuous-Time Motion Estimation [34.529280562470746]
コントラスト最大化フレームワークと非直線運動を組み合わせた新たな自己監督的損失を画素レベルの軌跡の形で導入する。
連続時間運動の高密度推定では, 合成学習モデルのゼロショット性能を29%向上する。
論文 参考訳(メタデータ) (2024-07-15T15:18:28Z) - ADFactory: An Effective Framework for Generalizing Optical Flow with
Nerf [0.4532517021515834]
自動データファクトリ(ADF)による新しい光フロートレーニングフレームワークについて紹介する。
ADFは、ターゲットデータ領域上の光フローネットワークを効果的にトレーニングするために、入力としてRGBイメージのみを必要とする。
我々は、高度なNerf技術を用いて、単眼カメラで収集した写真群からシーンを再構築する。
生成したラベルを光フローマッチングの精度、放射界の信頼性、深さの整合性などの複数の側面からスクリーニングする。
論文 参考訳(メタデータ) (2023-11-07T05:21:45Z) - Skin the sheep not only once: Reusing Various Depth Datasets to Drive
the Learning of Optical Flow [25.23550076996421]
本稿では,光学的フロー推定とステレオマッチングの幾何学的接続を活用することを提案する。
モノクラー深度データセットを仮想的不均一性によってステレオデータに変換する。
また、ステレオデータに仮想カメラの動きを導入し、垂直方向に沿って追加のフローを生成する。
論文 参考訳(メタデータ) (2023-10-03T06:56:07Z) - Improving Lens Flare Removal with General Purpose Pipeline and Multiple
Light Sources Recovery [69.71080926778413]
フレアアーティファクトは、画像の視覚的品質と下流のコンピュータビジョンタスクに影響を与える。
現在の方法では、画像信号処理パイプラインにおける自動露光やトーンマッピングは考慮されていない。
本稿では、ISPを再検討し、より信頼性の高い光源回収戦略を設計することで、レンズフレア除去性能を向上させるソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-31T04:58:17Z) - Sensor-Guided Optical Flow [53.295332513139925]
本稿では、未知の領域や未知の領域において、より優れた精度を実現するために、外部キューを用いた光フローネットワークを誘導するフレームワークを提案する。
能動センサからの深度測定と幾何および手作り光学フローアルゴリズムを組み合わせることで,これらがどのように得られるかを示す。
論文 参考訳(メタデータ) (2021-09-30T17:59:57Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - PCA Event-Based Otical Flow for Visual Odometry [0.0]
本稿では,イベントベース光流量推定問題に対する主成分分析手法を提案する。
提案手法の最良の変種は,ビジュアルオドメトリーのリアルタイムコンテキストを対象とし,最先端実装と比較して約2倍高速であることを示す。
論文 参考訳(メタデータ) (2021-05-08T18:30:44Z) - Learning optical flow from still images [53.295332513139925]
我々は,容易に利用可能な単一の実画像から,高精度な光学的フローアノテーションを迅速かつ多量に生成するフレームワークを提案する。
既知の動きベクトルと回転角を持つ再構成された環境でカメラを仮想的に移動させる。
我々のデータでトレーニングすると、最先端の光フローネットワークは、実データを見るのに優れた一般化を実現する。
論文 参考訳(メタデータ) (2021-04-08T17:59:58Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Back to Event Basics: Self-Supervised Learning of Image Reconstruction
for Event Cameras via Photometric Constancy [0.0]
イベントカメラは、非同期な方法で、低レイテンシで高時間分解能の輝度インクリメントをサンプリングする新しい視覚センサである。
本稿では,光学的フロー推定のための新しい軽量ニューラルネットワークを提案する。
複数のデータセットにまたがる結果から、提案した自己教師型アプローチのパフォーマンスは最先端技術と一致していることがわかる。
論文 参考訳(メタデータ) (2020-09-17T13:30:05Z) - Joint Unsupervised Learning of Optical Flow and Egomotion with Bi-Level
Optimization [59.9673626329892]
エピポーラ幾何を用いた光学フローとカメラモーションのグローバルな関係を利用する。
我々は暗黙の微分を用いて、その実装とは無関係に低レベルの幾何最適化層を通してバックプロパゲーションを可能にする。
論文 参考訳(メタデータ) (2020-02-26T22:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。