論文の概要: Multi-Stream Attention Learning for Monocular Vehicle Velocity and
Inter-Vehicle Distance Estimation
- arxiv url: http://arxiv.org/abs/2110.11608v1
- Date: Fri, 22 Oct 2021 06:14:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 14:30:50.981971
- Title: Multi-Stream Attention Learning for Monocular Vehicle Velocity and
Inter-Vehicle Distance Estimation
- Title(参考訳): 単車速と車間距離推定のためのマルチストリーム注意学習
- Authors: Kuan-Chih Huang, Yu-Kai Huang, Winston H. Hsu
- Abstract要約: 車両速度と車間距離の推定は、ADAS(Advanced driver-assistance system)と自律走行車にとって不可欠である。
近年の研究では、低コストの単眼カメラを用いて、車周りの環境をデータ駆動方式で知覚することに焦点を当てている。
MSANetは、例えば、共同走行速度と車間距離推定のための空間的特徴と文脈的特徴の異なる特徴を抽出するために提案されている。
- 参考スコア(独自算出の注目度): 25.103483428654375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle velocity and inter-vehicle distance estimation are essential for ADAS
(Advanced driver-assistance systems) and autonomous vehicles. To save the cost
of expensive ranging sensors, recent studies focus on using a low-cost
monocular camera to perceive the environment around the vehicle in a
data-driven fashion. Existing approaches treat each vehicle independently for
perception and cause inconsistent estimation. Furthermore, important
information like context and spatial relation in 2D object detection is often
neglected in the velocity estimation pipeline. In this paper, we explore the
relationship between vehicles of the same frame with a
global-relative-constraint (GLC) loss to encourage consistent estimation. A
novel multi-stream attention network (MSANet) is proposed to extract different
aspects of features, e.g., spatial and contextual features, for joint vehicle
velocity and inter-vehicle distance estimation. Experiments show the
effectiveness and robustness of our proposed approach. MSANet outperforms
state-of-the-art algorithms on both the KITTI dataset and TuSimple velocity
dataset.
- Abstract(参考訳): ada(advanced driver-assistance system)や自動運転車には、車速と車間距離推定が不可欠である。
高価なレンジセンサーのコストを抑えるため、最近の研究では、低コストの単眼カメラを使用して、データ駆動方式で車両周囲の環境を知覚することに焦点を当てている。
既存のアプローチでは、各車両を独立して認識し、一貫性のない推定を行う。
さらに, 2次元物体検出における文脈や空間関係などの重要な情報は, 速度推定パイプラインでは無視されることが多い。
本稿では,一貫した推定を促進するために,同一フレームの車両とグローバル相対制約(GLC)損失の関係を検討する。
新しいマルチストリームアテンションネットワーク(MSANet)が提案され、例えば、車間距離推定と車間距離推定のための空間的特徴と文脈的特徴の異なる特徴を抽出する。
提案手法の有効性と頑健性を示す実験を行った。
msanetはkittiデータセットとtusimple velocityデータセットの両方で最先端のアルゴリズムを上回る。
関連論文リスト
- LiDAR-based End-to-end Temporal Perception for Vehicle-Infrastructure Cooperation [16.465037559349323]
LET-VIC(LDAR-based End-to-End Tracking framework for Vehicle-Temporal Cooperation)を紹介する。
LET-VICはV2X通信を利用して、車両とインフラの両方のセンサーから空間データと時間データを融合することで、時間知覚を高める。
V2X-Seq-SPDデータセットの実験では、LET-VICはベースラインモデルよりも優れており、少なくともmAPが13.7%、AMOTAが13.1%改善している。
論文 参考訳(メタデータ) (2024-11-22T13:34:29Z) - CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions [13.981748780317329]
カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
論文 参考訳(メタデータ) (2024-07-25T04:12:49Z) - Spatial-Temporal Generative AI for Traffic Flow Estimation with Sparse Data of Connected Vehicles [48.32593099620544]
交通流推定(TFE)はインテリジェント交通システムにおいて重要である。
本稿では,スパース時間生成人工知能(GAI)フレームワークを活用した,新規で費用対効果の高いTFEフレームワークを提案する。
このフレームワーク内では、条件エンコーダは初期TFE結果の時空間相関をマイニングする。
論文 参考訳(メタデータ) (2024-07-10T20:26:04Z) - Robust and Fast Vehicle Detection using Augmented Confidence Map [10.261351772602543]
車両を含む関心領域を強調する拡張の概念を導入する。
MR-MSERの出力は高速CNNに供給され、信頼マップを生成する。
車両検出のための複雑なモデルを実装する既存のモデルとは異なり、粗いセットとファジィベースのモデルの組み合わせについて検討する。
論文 参考訳(メタデータ) (2023-04-27T18:41:16Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。