論文の概要: Vision-Cloud Data Fusion for ADAS: A Lane Change Prediction Case Study
- arxiv url: http://arxiv.org/abs/2112.04042v1
- Date: Tue, 7 Dec 2021 23:42:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 00:43:36.546494
- Title: Vision-Cloud Data Fusion for ADAS: A Lane Change Prediction Case Study
- Title(参考訳): adasのためのビジョン・クラウドデータ融合:レーン変更予測のケーススタディ
- Authors: Yongkang Liu, Ziran Wang, Kyungtae Han, Zhenyu Shou, Prashant Tiwari,
John H.L. Hansen
- Abstract要約: 我々は,カメラ画像とDigital Twin情報をクラウドから統合して,インテリジェントな車両のより良い意思決定を支援する,新しいビジョンクラウドデータ融合手法を導入する。
提案手法の有効性を示すために,車線変化予測のケーススタディを行った。
- 参考スコア(独自算出の注目度): 38.65843674620544
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: With the rapid development of intelligent vehicles and Advanced
Driver-Assistance Systems (ADAS), a new trend is that mixed levels of human
driver engagements will be involved in the transportation system. Therefore,
necessary visual guidance for drivers is vitally important under this situation
to prevent potential risks. To advance the development of visual guidance
systems, we introduce a novel vision-cloud data fusion methodology, integrating
camera image and Digital Twin information from the cloud to help intelligent
vehicles make better decisions. Target vehicle bounding box is drawn and
matched with the help of the object detector (running on the ego-vehicle) and
position information (received from the cloud). The best matching result, a
79.2% accuracy under 0.7 intersection over union threshold, is obtained with
depth images served as an additional feature source. A case study on lane
change prediction is conducted to show the effectiveness of the proposed data
fusion methodology. In the case study, a multi-layer perceptron algorithm is
proposed with modified lane change prediction approaches. Human-in-the-loop
simulation results obtained from the Unity game engine reveal that the proposed
model can improve highway driving performance significantly in terms of safety,
comfort, and environmental sustainability.
- Abstract(参考訳): インテリジェントな車両と先進的な運転支援システム(adas)の急速な発展により、人間の運転者参加の混合レベルが輸送システムに関与するという新しいトレンドが生まれている。
そのため,この状況下では,運転者の視覚指導が極めて重要である。
視覚誘導システムの開発を進めるために,視覚・クラウドデータ融合手法を新たに導入し,カメラ画像とデジタルツイン情報をクラウドから統合し,インテリジェントな車両の意思決定を支援する。
対象車両バウンディングボックスを、物体検出装置(自走車上で動作)と位置情報(雲から受信)の助けを借りて描画して一致させる。
最適なマッチング結果である0.7の閾値を交叉する79.2%の精度が、追加の特徴源としての深度画像と共に得られる。
提案手法の有効性を示すために,車線変化予測のケーススタディを行った。
このケーススタディでは,車線変化予測手法を改良した多層パーセプトロンアルゴリズムを提案する。
unity game engineから得られたヒューマン・イン・ザ・ループシミュレーションの結果から,提案モデルが安全性,快適性,環境持続性の観点から高速道路走行性能を著しく向上できることが判明した。
関連論文リスト
- RainSD: Rain Style Diversification Module for Image Synthesis
Enhancement using Feature-Level Style Distribution [5.500457283114346]
本稿では,実際の道路データセットBDD100Kから発生するセンサブロックを用いた道路合成データセットを提案する。
このデータセットを用いて、自律運転のための多様なマルチタスクネットワークの劣化を評価し、分析した。
深層ニューラルネットワークを用いた自動運転車の認識システムの性能劣化傾向を深く分析した。
論文 参考訳(メタデータ) (2023-12-31T11:30:42Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Monocular Vision-based Prediction of Cut-in Maneuvers with LSTM Networks [0.0]
本研究では,エゴレーンで発生する潜在的に危険なカットイン動作を予測する手法を提案する。
我々は、1台の車載RGBカメラのみを使用するコンピュータビジョンベースのアプローチに従う。
本アルゴリズムは,CNNに基づく車両検出・追跡ステップとLSTMに基づく操縦分類ステップから構成される。
論文 参考訳(メタデータ) (2022-03-21T02:30:36Z) - DRIVE: Deep Reinforced Accident Anticipation with Visual Explanation [36.350348194248014]
交通事故予測は、ダッシュカムビデオから将来の事故の発生を正確にかつ迅速に予測することを目的としている。
既存のアプローチは通常、将来の事故が起こる前に、空間的および時間的文脈の手がかりを捉えることに重点を置いている。
本稿では, DRIVE という視覚表現を用いた深部強化型事故予測手法を提案する。
論文 参考訳(メタデータ) (2021-07-21T16:33:21Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z) - Vehicle trajectory prediction in top-view image sequences based on deep
learning method [1.181206257787103]
周囲の車両の動きを推定し予測することは、自動車両と高度な安全システムにとって不可欠である。
道路の空中画像から得られた画像から学習した計算複雑性の低いモデルを提案する。
提案モデルでは, 対象車両とその周辺車両の移動履歴に関する画像を見るだけで, 自動車の将来の進路を予測できる。
論文 参考訳(メタデータ) (2021-02-02T20:48:19Z) - Sensor Fusion of Camera and Cloud Digital Twin Information for
Intelligent Vehicles [26.00647601539363]
クラウドからカメラ画像とDigital Twinの知識を統合する新しいセンサ融合手法を提案する。
最適なマッチング結果は、0.7インターセクション・オーバー・ユニオン(IoU)閾値以下で79.2%の精度で得られ、奥行き画像が付加的な特徴源として提供される。
ゲームエンジンをベースとしたシミュレーションの結果、視覚誘導システムにより運転安全性が向上し、クラウドのDigital Twinシステムと大幅に協調することが判明した。
論文 参考訳(メタデータ) (2020-07-08T18:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。