論文の概要: LiveMap: Real-Time Dynamic Map in Automotive Edge Computing
- arxiv url: http://arxiv.org/abs/2012.10252v1
- Date: Wed, 16 Dec 2020 15:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 11:17:16.039233
- Title: LiveMap: Real-Time Dynamic Map in Automotive Edge Computing
- Title(参考訳): LiveMap: 自動車エッジコンピューティングにおけるリアルタイム動的マップ
- Authors: Qiang Liu, Tao Han, Jiang (Linda) Xie, BaekGyu Kim
- Abstract要約: LiveMapは、接続された車両のデータをサブ秒でクラウドソーシングし、道路上のオブジェクトを検出し、一致させ、追跡するリアルタイムダイナミックマップです。
車両の計算を適応的にオフロードできるlivemapの制御プレーンを開発した。
小型テストベッド上でLiveMapを実装し,大規模ネットワークシミュレータを開発した。
- 参考スコア(独自算出の注目度): 14.195521569220448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving needs various line-of-sight sensors to perceive
surroundings that could be impaired under diverse environment uncertainties
such as visual occlusion and extreme weather. To improve driving safety, we
explore to wirelessly share perception information among connected vehicles
within automotive edge computing networks. Sharing massive perception data in
real time, however, is challenging under dynamic networking conditions and
varying computation workloads. In this paper, we propose LiveMap, a real-time
dynamic map, that detects, matches, and tracks objects on the road with
crowdsourcing data from connected vehicles in sub-second. We develop the data
plane of LiveMap that efficiently processes individual vehicle data with object
detection, projection, feature extraction, object matching, and effectively
integrates objects from multiple vehicles with object combination. We design
the control plane of LiveMap that allows adaptive offloading of vehicle
computations, and develop an intelligent vehicle scheduling and offloading
algorithm to reduce the offloading latency of vehicles based on deep
reinforcement learning (DRL) techniques. We implement LiveMap on a small-scale
testbed and develop a large-scale network simulator. We evaluate the
performance of LiveMap with both experiments and simulations, and the results
show LiveMap reduces 34.1% average latency than the baseline solution.
- Abstract(参考訳): 自律運転は、視覚的閉塞や極端な天候といった様々な環境の不確実性の下で障害を受ける可能性のある環境を知覚するために、様々な視線センサーを必要とする。
運転安全性を向上させるため,自動車エッジコンピューティングネットワークにおいて,接続された車両間で知覚情報を無線で共有することを検討する。
しかし、動的ネットワーク条件と様々な計算ワークロードの下で、大量の知覚データをリアルタイムで共有することは困難である。
本稿では,道路上の物体を検出し,一致し,追跡するリアルタイム動的マップであるLiveMapを提案する。
オブジェクト検出,投影,特徴抽出,オブジェクトマッチングにより個々の車両データを効率的に処理し,複数車両からのオブジェクトとオブジェクトの組み合わせを効果的に統合するLiveMapのデータプレーンを開発した。
我々は,車載計算の適応的オフロードを可能にするLiveMapの制御プレーンを設計し,深部強化学習(DRL)技術に基づく車両のオフロード遅延を低減するインテリジェントな車両スケジューリングおよびオフロードアルゴリズムを開発した。
小型テストベッド上でLiveMapを実装し,大規模ネットワークシミュレータを開発した。
実験とシミュレーションの両方でLiveMapの性能を評価し,結果からベースラインソリューションよりも34.1%平均遅延を低減した。
関連論文リスト
- Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Exploring Map-based Features for Efficient Attention-based Vehicle
Motion Prediction [3.222802562733787]
複数のエージェントの動作予測は、任意に複雑な環境において重要なタスクである。
本稿では,効率的な注意モデルを用いてArgoverse 1.0ベンチマークで競合性能を実現する方法を示す。
論文 参考訳(メタデータ) (2022-05-25T22:38:11Z) - Collaborative 3D Object Detection for Automatic Vehicle Systems via
Learnable Communications [8.633120731620307]
本稿では,3つのコンポーネントから構成される新しい3次元オブジェクト検出フレームワークを提案する。
実験結果と帯域使用量分析により,本手法は通信コストと計算コストを削減できることを示した。
論文 参考訳(メタデータ) (2022-05-24T07:17:32Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Multi-Stream Attention Learning for Monocular Vehicle Velocity and
Inter-Vehicle Distance Estimation [25.103483428654375]
車両速度と車間距離の推定は、ADAS(Advanced driver-assistance system)と自律走行車にとって不可欠である。
近年の研究では、低コストの単眼カメラを用いて、車周りの環境をデータ駆動方式で知覚することに焦点を当てている。
MSANetは、例えば、共同走行速度と車間距離推定のための空間的特徴と文脈的特徴の異なる特徴を抽出するために提案されている。
論文 参考訳(メタデータ) (2021-10-22T06:14:12Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。