論文の概要: Freespace Optical Flow Modeling for Automated Driving
- arxiv url: http://arxiv.org/abs/2307.15989v2
- Date: Thu, 3 Aug 2023 02:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 16:27:38.762495
- Title: Freespace Optical Flow Modeling for Automated Driving
- Title(参考訳): 自動駆動のための自由空間光フローモデリング
- Authors: Yi Feng, Ruge Zhang, Jiayuan Du, Qijun Chen, Rui Fan
- Abstract要約: 文献では「U-V-Disparity」が広く研究されているが、光学的流れに匹敵するものは比較的注目されていない。
従来の動作解析アルゴリズムは、2つの連続するビデオフレーム間の対応性によって光の流れを推定する。
知的車両における衝突のない空間における光の流れをモデル化するための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 10.336681607847162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical flow and disparity are two informative visual features for autonomous
driving perception. They have been used for a variety of applications, such as
obstacle and lane detection. The concept of "U-V-Disparity" has been widely
explored in the literature, while its counterpart in optical flow has received
relatively little attention. Traditional motion analysis algorithms estimate
optical flow by matching correspondences between two successive video frames,
which limits the full utilization of environmental information and geometric
constraints. Therefore, we propose a novel strategy to model optical flow in
the collision-free space (also referred to as drivable area or simply
freespace) for intelligent vehicles, with the full utilization of geometry
information in a 3D driving environment. We provide explicit representations of
optical flow and deduce the quadratic relationship between the optical flow
component and the vertical coordinate. Through extensive experiments on several
public datasets, we demonstrate the high accuracy and robustness of our model.
Additionally, our proposed freespace optical flow model boasts a diverse array
of applications within the realm of automated driving, providing a geometric
constraint in freespace detection, vehicle localization, and more. We have made
our source code publicly available at https://mias.group/FSOF.
- Abstract(参考訳): 光の流れと相違は、自律運転知覚の2つの視覚的特徴である。
これらは障害物やレーン検出など、さまざまな用途で使用されてきた。
U-V-Disparity」という概念は文献で広く研究されているが、光学的流れに匹敵する概念は比較的注目されていない。
従来の動き解析アルゴリズムは、環境情報と幾何学的制約の完全利用を制限する2つの連続したビデオフレーム間の対応によって光の流れを推定する。
そこで我々は,3次元駆動環境における形状情報を完全に活用して,衝突自由空間(乾燥可能な領域,あるいは単に自由空間とも呼ばれる)における光学的流れをモデル化する新しい手法を提案する。
我々は,光学フローの明示的な表現を提供し,光学フロー成分と垂直座標との二次関係を導出する。
いくつかの公開データセットに関する広範囲な実験を通じて,モデルの高精度と堅牢性を示す。
さらに,提案する自由空間オプティカルフローモデルは,自動運転分野における多様なアプリケーション群を誇示し,自由空間検出や車両のローカライゼーションなどにおいて幾何学的制約を与える。
ソースコードをhttps://mias.group/FSOF.comで公開しました。
関連論文リスト
- X-Drive: Cross-modality consistent multi-sensor data synthesis for driving scenarios [105.16073169351299]
本稿では,点雲と多視点画像の連成分布をモデル化する新しいフレームワーク,X-DRIVEを提案する。
2つのモダリティの異なる幾何学的空間を考えると、X-DRIVE条件は対応する局所領域上の各モダリティの合成である。
X-DRIVEはテキスト、バウンディングボックス、画像、点雲を含む多レベル入力条件を通じて制御可能な生成を可能にする。
論文 参考訳(メタデータ) (2024-11-02T03:52:12Z) - Optical Flow Matters: an Empirical Comparative Study on Fusing Monocular Extracted Modalities for Better Steering [37.46760714516923]
本研究は、単眼カメラからのマルチモーダル情報を利用して、自動運転車のステアリング予測を改善する新しいエンドツーエンド手法を提案する。
本稿では,RGB画像と深度補完情報や光フローデータとの融合に着目し,これらのモダリティを早期・ハイブリッド融合技術によって統合する枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-18T09:36:24Z) - Comparing Optical Flow and Deep Learning to Enable Computationally Efficient Traffic Event Detection with Space-Filling Curves [0.6322312717516407]
我々は,OF(Optical Flow)とDL(Deep Learning)を比較し,前方の車載カメラからの映像データに対して,空間充填曲線による計算効率の高いイベント検出を行う。
以上の結果から,OFアプローチは特異性に優れ,偽陽性を低減し,DLアプローチは優れた感度を示した。
論文 参考訳(メタデータ) (2024-07-15T13:44:52Z) - Skin the sheep not only once: Reusing Various Depth Datasets to Drive
the Learning of Optical Flow [25.23550076996421]
本稿では,光学的フロー推定とステレオマッチングの幾何学的接続を活用することを提案する。
モノクラー深度データセットを仮想的不均一性によってステレオデータに変換する。
また、ステレオデータに仮想カメラの動きを導入し、垂直方向に沿って追加のフローを生成する。
論文 参考訳(メタデータ) (2023-10-03T06:56:07Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - DEFLOW: Self-supervised 3D Motion Estimation of Debris Flow [19.240172015210586]
土石流の3次元運動推定モデルであるDefLOWを提案する。
我々は、シーンの帰納バイアスを組み込むために、新しいマルチレベルセンサー融合アーキテクチャとセルフスーパービジョンを採用する。
本モデルでは,我々のデータセット上での最先端の光学的流れと深度推定を実現し,デブリ流の運動推定を完全に自動化する。
論文 参考訳(メタデータ) (2023-04-05T16:40:14Z) - Leveraging Multi-stream Information Fusion for Trajectory Prediction in
Low-illumination Scenarios: A Multi-channel Graph Convolutional Approach [8.671486571411796]
軌道予測は自動運転車の基本的な問題であり課題である。
本稿では,マルチストリーム情報融合を利用した低照度シナリオにおける軌道予測手法を提案する。
論文 参考訳(メタデータ) (2022-11-18T13:25:15Z) - Dimensions of Motion: Learning to Predict a Subspace of Optical Flow
from a Single Image [50.9686256513627]
本稿では,1つのビデオフレームから,実際の瞬時光フローを含む低次元の光フローのサブスペースを予測する問題を紹介する。
いくつかの自然シーンの仮定によって、不均一性によってパラメータ化されたベースフローフィールドの集合を通して、適切なフロー部分空間を特定できることを示す。
これは、カメラの内在やポーズを必要とせずに、単眼入力ビデオを使用して教師なしの方法でこれらのタスクを学習する新しいアプローチを提供する。
論文 参考訳(メタデータ) (2021-12-02T18:52:54Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。