論文の概要: Leveraging the Edge and Cloud for V2X-Based Real-Time Object Detection
in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2308.05234v1
- Date: Wed, 9 Aug 2023 21:39:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 14:17:36.701231
- Title: Leveraging the Edge and Cloud for V2X-Based Real-Time Object Detection
in Autonomous Driving
- Title(参考訳): 自動運転におけるV2Xに基づくリアルタイム物体検出のためのエッジとクラウドの活用
- Authors: Faisal Hawlader, Fran\c{c}ois Robinet, and Rapha\"el Frank
- Abstract要約: 環境認識は自動運転の重要な要素である。
本稿では,自動運転車のリアルタイム認識における検出品質と遅延の最良のトレードオフについて検討する。
我々は,局所的な検出性能を向上しつつ,適切な圧縮を伴うモデルをクラウド上でリアルタイムに実行可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Environmental perception is a key element of autonomous driving because the
information received from the perception module influences core driving
decisions. An outstanding challenge in real-time perception for autonomous
driving lies in finding the best trade-off between detection quality and
latency. Major constraints on both computation and power have to be taken into
account for real-time perception in autonomous vehicles. Larger object
detection models tend to produce the best results, but are also slower at
runtime. Since the most accurate detectors cannot run in real-time locally, we
investigate the possibility of offloading computation to edge and cloud
platforms, which are less resource-constrained. We create a synthetic dataset
to train object detection models and evaluate different offloading strategies.
Using real hardware and network simulations, we compare different trade-offs
between prediction quality and end-to-end delay. Since sending raw frames over
the network implies additional transmission delays, we also explore the use of
JPEG and H.265 compression at varying qualities and measure their impact on
prediction metrics. We show that models with adequate compression can be run in
real-time on the cloud while outperforming local detection performance.
- Abstract(参考訳): 環境認識は、知覚モジュールから受信した情報が中核駆動決定に影響を与えるため、自律運転の重要な要素である。
自動運転のリアルタイム認識における際立った課題は、検出品質とレイテンシの最良のトレードオフを見つけることである。
計算とパワーの両面での大きな制約は、自動運転車のリアルタイム認識を考慮する必要がある。
より大きなオブジェクト検出モデルは最高の結果をもたらす傾向があるが、実行時にも遅い。
最も正確な検出器はローカルでリアルタイムに動作できないため、リソース制約の少ないエッジやクラウドプラットフォームに計算をオフロードする可能性を検討する。
オブジェクト検出モデルをトレーニングし、異なるオフロード戦略を評価するための合成データセットを作成する。
実ハードウェアとネットワークシミュレーションを用いて,予測品質とエンドツーエンド遅延のトレードオフを比較した。
ネットワーク上で生フレームを送信することで送信遅延が増大するため、JPEGとH.265圧縮を様々な品質で使用し、予測指標への影響を測定する。
クラウド上で適切な圧縮を行うモデルが,ローカル検出性能を上回りながらリアルタイムに実行可能であることを示す。
関連論文リスト
- Real-Time Pedestrian Detection on IoT Edge Devices: A Lightweight Deep Learning Approach [1.4732811715354455]
本研究では,AIoT(Artificial Intelligence of Things)エッジデバイス上での軽量ディープラーニングモデルの実装について検討する。
You Only Look Once (YOLO)ベースのDLモデルは、リアルタイムな歩行者検出のためにデプロイされる。
シミュレーションの結果、最適化されたYOLOモデルは、高速な推論速度147ミリ秒、フレームレート2.3フレーム/秒、精度78%でリアルタイムな歩行者検出を実現できることが示された。
論文 参考訳(メタデータ) (2024-09-24T04:48:41Z) - Is That Rain? Understanding Effects on Visual Odometry Performance for Autonomous UAVs and Efficient DNN-based Rain Classification at the Edge [1.8936798735951972]
最先端のローカルトラッキングと軌道計画は通常、飛行制御アルゴリズムにカメラセンサーを入力して実行される。
最先端のビジュアル・オドメトリーシステムでは, 1.5mの最悪ケース平均追跡誤差が可能であることを示す。
我々は、モバイルおよび制約されたデプロイメントシナリオに適したディープニューラルネットワークモデルのセットをトレーニングし、これらの雨の条件を効率的に正確に分類できる範囲を判断する。
論文 参考訳(メタデータ) (2024-07-17T15:47:25Z) - Real-time Traffic Object Detection for Autonomous Driving [5.780326596446099]
現代のコンピュータビジョン技術は、効率よりも精度を優先する傾向がある。
既存の物体検出器はリアルタイムには程遠い。
リアルタイム要件を取り入れた,より適切な代替案を提案する。
論文 参考訳(メタデータ) (2024-01-31T19:12:56Z) - Rethinking Voxelization and Classification for 3D Object Detection [68.8204255655161]
LiDARポイントクラウドからの3Dオブジェクト検出の主な課題は、ネットワークの信頼性に影響を与えることなく、リアルタイムのパフォーマンスを実現することである。
本稿では,高速な動的ボキセラライザを実装することにより,ネットワークの推論速度と精度を同時に向上するソリューションを提案する。
さらに,予測対象を分類し,偽検出対象をフィルタリングする軽量検出サブヘッドモデルを提案する。
論文 参考訳(メタデータ) (2023-01-10T16:22:04Z) - DaDe: Delay-adaptive Detector for Streaming Perception [0.0]
リアルタイム環境では、処理が終了すると周囲環境が変化する。
リアルタイム映像認識のレイテンシと精度を評価するために,ストリーム認識を提案する。
我々は,処理遅延をリアルタイムに反映し,最も合理的な結果が得られるモデルを開発した。
論文 参考訳(メタデータ) (2022-12-22T09:25:46Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Testing the Safety of Self-driving Vehicles by Simulating Perception and
Prediction [88.0416857308144]
センサシミュレーションは高価であり,領域ギャップが大きいため,センサシミュレーションに代わる方法を提案する。
我々は、自動運転車の知覚と予測システムの出力を直接シミュレートし、現実的な動き計画テストを可能にする。
論文 参考訳(メタデータ) (2020-08-13T17:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。