論文の概要: LiveMap: Real-Time Dynamic Map in Automotive Edge Computing
- arxiv url: http://arxiv.org/abs/2012.10252v1
- Date: Wed, 16 Dec 2020 15:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 11:17:16.039233
- Title: LiveMap: Real-Time Dynamic Map in Automotive Edge Computing
- Title(参考訳): LiveMap: 自動車エッジコンピューティングにおけるリアルタイム動的マップ
- Authors: Qiang Liu, Tao Han, Jiang (Linda) Xie, BaekGyu Kim
- Abstract要約: LiveMapは、接続された車両のデータをサブ秒でクラウドソーシングし、道路上のオブジェクトを検出し、一致させ、追跡するリアルタイムダイナミックマップです。
車両の計算を適応的にオフロードできるlivemapの制御プレーンを開発した。
小型テストベッド上でLiveMapを実装し,大規模ネットワークシミュレータを開発した。
- 参考スコア(独自算出の注目度): 14.195521569220448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving needs various line-of-sight sensors to perceive
surroundings that could be impaired under diverse environment uncertainties
such as visual occlusion and extreme weather. To improve driving safety, we
explore to wirelessly share perception information among connected vehicles
within automotive edge computing networks. Sharing massive perception data in
real time, however, is challenging under dynamic networking conditions and
varying computation workloads. In this paper, we propose LiveMap, a real-time
dynamic map, that detects, matches, and tracks objects on the road with
crowdsourcing data from connected vehicles in sub-second. We develop the data
plane of LiveMap that efficiently processes individual vehicle data with object
detection, projection, feature extraction, object matching, and effectively
integrates objects from multiple vehicles with object combination. We design
the control plane of LiveMap that allows adaptive offloading of vehicle
computations, and develop an intelligent vehicle scheduling and offloading
algorithm to reduce the offloading latency of vehicles based on deep
reinforcement learning (DRL) techniques. We implement LiveMap on a small-scale
testbed and develop a large-scale network simulator. We evaluate the
performance of LiveMap with both experiments and simulations, and the results
show LiveMap reduces 34.1% average latency than the baseline solution.
- Abstract(参考訳): 自律運転は、視覚的閉塞や極端な天候といった様々な環境の不確実性の下で障害を受ける可能性のある環境を知覚するために、様々な視線センサーを必要とする。
運転安全性を向上させるため,自動車エッジコンピューティングネットワークにおいて,接続された車両間で知覚情報を無線で共有することを検討する。
しかし、動的ネットワーク条件と様々な計算ワークロードの下で、大量の知覚データをリアルタイムで共有することは困難である。
本稿では,道路上の物体を検出し,一致し,追跡するリアルタイム動的マップであるLiveMapを提案する。
オブジェクト検出,投影,特徴抽出,オブジェクトマッチングにより個々の車両データを効率的に処理し,複数車両からのオブジェクトとオブジェクトの組み合わせを効果的に統合するLiveMapのデータプレーンを開発した。
我々は,車載計算の適応的オフロードを可能にするLiveMapの制御プレーンを設計し,深部強化学習(DRL)技術に基づく車両のオフロード遅延を低減するインテリジェントな車両スケジューリングおよびオフロードアルゴリズムを開発した。
小型テストベッド上でLiveMapを実装し,大規模ネットワークシミュレータを開発した。
実験とシミュレーションの両方でLiveMapの性能を評価し,結果からベースラインソリューションよりも34.1%平均遅延を低減した。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras [26.457695296042903]
道路側から見たユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
SKoPe3Dには150万以上の車両インスタンスと490万のキーポイントがある。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
論文 参考訳(メタデータ) (2023-09-04T02:57:30Z) - Visual Perception System for Autonomous Driving [9.659835301514288]
本研究は、走行物体の軌跡追跡と予測を統合して衝突を防止する、自律走行のための視覚的認識システムを導入する。
このシステムは歩行者の動きの手がかりを利用して、その動きを監視し、予測し、同時に環境をマッピングする。
このアプローチの性能、効率、レジリエンスは、シミュレーションと実世界の両方のデータセットの包括的な評価によって実証される。
論文 参考訳(メタデータ) (2023-03-03T23:12:43Z) - Exploring Map-based Features for Efficient Attention-based Vehicle
Motion Prediction [3.222802562733787]
複数のエージェントの動作予測は、任意に複雑な環境において重要なタスクである。
本稿では,効率的な注意モデルを用いてArgoverse 1.0ベンチマークで競合性能を実現する方法を示す。
論文 参考訳(メタデータ) (2022-05-25T22:38:11Z) - Collaborative 3D Object Detection for Automatic Vehicle Systems via
Learnable Communications [8.633120731620307]
本稿では,3つのコンポーネントから構成される新しい3次元オブジェクト検出フレームワークを提案する。
実験結果と帯域使用量分析により,本手法は通信コストと計算コストを削減できることを示した。
論文 参考訳(メタデータ) (2022-05-24T07:17:32Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Radar-based Dynamic Occupancy Grid Mapping and Object Detection [55.74894405714851]
近年、古典的占有グリッドマップのアプローチが動的占有グリッドマップに拡張されている。
本稿では,従来のアプローチのさらなる発展について述べる。
複数のレーダセンサのデータを融合し、グリッドベースの物体追跡・マッピング手法を適用する。
論文 参考訳(メタデータ) (2020-08-09T09:26:30Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。