論文の概要: R-TOD: Real-Time Object Detector with Minimized End-to-End Delay for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2011.06372v1
- Date: Fri, 23 Oct 2020 01:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 23:27:24.277815
- Title: R-TOD: Real-Time Object Detector with Minimized End-to-End Delay for
Autonomous Driving
- Title(参考訳): R-TOD: 自律走行に最小限のエンド・ツー・エンド遅延を有するリアルタイム物体検出装置
- Authors: Wonseok Jang, Hansaem Jeong, Kyungtae Kang, Nikil Dutt, Jong-Chan Kim
- Abstract要約: 本稿では、エンドツーエンドの遅延をより包括的に理解することを目的としている。
i)オンデマンドキャプチャ、ii)ゼロスラックパイプライン、iii)競合のないパイプラインの3つの最適化手法が実装されている。
実験の結果,Darknet YOLO v3のエンド・ツー・エンド遅延は76%減少した。
- 参考スコア(独自算出の注目度): 3.366875318492424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For realizing safe autonomous driving, the end-to-end delays of real-time
object detection systems should be thoroughly analyzed and minimized. However,
despite recent development of neural networks with minimized inference delays,
surprisingly little attention has been paid to their end-to-end delays from an
object's appearance until its detection is reported. With this motivation, this
paper aims to provide more comprehensive understanding of the end-to-end delay,
through which precise best- and worst-case delay predictions are formulated,
and three optimization methods are implemented: (i) on-demand capture, (ii)
zero-slack pipeline, and (iii) contention-free pipeline. Our experimental
results show a 76% reduction in the end-to-end delay of Darknet YOLO (You Only
Look Once) v3 (from 1070 ms to 261 ms), thereby demonstrating the great
potential of exploiting the end-to-end delay analysis for autonomous driving.
Furthermore, as we only modify the system architecture and do not change the
neural network architecture itself, our approach incurs no penalty on the
detection accuracy.
- Abstract(参考訳): 安全な自動運転を実現するためには、リアルタイム物体検出システムのエンドツーエンド遅延を徹底的に分析し、最小化する必要がある。
しかしながら、推論遅延を最小限に抑えた最近のニューラルネットワークの開発にもかかわらず、オブジェクトの出現から検出が報告されるまでのエンドツーエンドの遅延には驚くほど注意が払われていない。
このモチベーションを生かして,最良・最悪の遅延予測を正確に定式化し,3つの最適化手法を実装した,エンドツーエンドの遅延に関するより包括的な理解を提供することを目的とする。
(i)オンデマンドキャプチャ。
(ii)ゼロスラックパイプライン、及び
(iii)コンテンションフリーパイプライン。
実験の結果,Darknet YOLO(You Only Look Once) v3(1070msから261ms)のエンド・ツー・エンド遅延を76%低減し,自動運転におけるエンド・ツー・エンド遅延解析の活用の可能性を示した。
さらに、システムアーキテクチャのみを変更し、ニューラルネットワークアーキテクチャ自体を変更しないので、このアプローチは検出精度にペナルティを課さない。
関連論文リスト
- VALO: A Versatile Anytime Framework for LiDAR-based Object Detection Deep Neural Networks [4.953750672237398]
本研究は,LDARオブジェクト検出ディープニューラルネットワーク(DNN)における動的期限条件の適用という課題に対処する。
VALO(Versatile Anytime Algorithm for LiDAR Object Detection)は3次元LiDARオブジェクト検出DNNの任意の時間計算を可能にする新しいデータ中心のアプローチである。
本研究では,最先端の3次元LiDARオブジェクト検出ネットワーク,すなわちCenterPointとVoxelNextにVALOを実装し,その動的適応性を広範囲の時間制約に適用できることを実証する。
論文 参考訳(メタデータ) (2024-09-17T20:30:35Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - MTD: Multi-Timestep Detector for Delayed Streaming Perception [0.5439020425819]
ストリーミング知覚は、自律運転システムの遅延と精度を評価するために使用される、世界の現在の状態を報告するタスクである。
本稿では,マルチブランチ将来の予測に動的ルーティングを利用するエンドツーエンド検出器MTDを提案する。
提案手法はArgoverse-HDデータセットを用いて評価され,実験結果から,様々な遅延設定における最先端性能が得られたことが示された。
論文 参考訳(メタデータ) (2023-09-13T06:23:58Z) - MonoPIC -- A Monocular Low-Latency Pedestrian Intention Classification
Framework for IoT Edges Using ID3 Modelled Decision Trees [0.0]
本稿では,2次元のフレーム内の任意の歩行者の意図を論理状態に分類するアルゴリズムを提案する。
これにより、比較的レイテンシの高いディープラーニングアルゴリズムを使用する必要がなくなる。
平均テスト精度は83.56%で信頼性は0.0042で、平均レイテンシは48ミリ秒であった。
論文 参考訳(メタデータ) (2023-04-01T02:42:24Z) - Achieving Real-Time Object Detection on MobileDevices with Neural
Pruning Search [45.20331644857981]
本稿では,2次元および3次元物体検出のための自律走行車における高速推論を実現するために,コンパイラ対応のニューラルプルーニング検索フレームワークを提案する。
提案手法は, YOLOv4 を用いた2次元物体検出と PointPillars による3次元物体検出において, 実時間, 55ms および 99ms の推論時間を実現する。
論文 参考訳(メタデータ) (2021-06-28T18:59:20Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z) - FastEmit: Low-latency Streaming ASR with Sequence-level Emission
Regularization [78.46088089185156]
ストリーム自動音声認識(ASR)は、仮説化された単語を可能な限り迅速かつ正確に出力することを目的としている。
既存のアプローチでは、シーケンストランスデューサモデルにおいて、トーケン単位またはフレーム単位の確率予測を演算することで、発光遅延をペナルティ化する。
本稿では,訓練用トランスデューサモデルにおいて,シーケンス毎の確率に遅延正規化を直接適用する,FastEmitというシーケンスレベルのエミッション正規化手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T17:05:01Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z) - Streaming Object Detection for 3-D Point Clouds [29.465873948076766]
LiDARは、多くの既存の知覚システムに通知する顕著な感覚モダリティを提供する。
ポイントクラウドデータに基づく知覚システムのレイテンシは、完全なローテーションスキャンの時間量によって支配される。
我々は、LiDARデータをそのネイティブストリーミング定式化で操作することで、自動運転オブジェクト検出にいくつかの利点があることを示す。
論文 参考訳(メタデータ) (2020-05-04T21:55:15Z) - Adaptive Anomaly Detection for IoT Data in Hierarchical Edge Computing [71.86955275376604]
本稿では,階層型エッジコンピューティング(HEC)システムに対する適応型異常検出手法を提案する。
本研究では,入力データから抽出した文脈情報に基づいてモデルを選択する適応的手法を設計し,異常検出を行う。
提案手法を実際のIoTデータセットを用いて評価し,検出タスクをクラウドにオフロードするのとほぼ同じ精度を維持しながら,検出遅延を84%削減できることを実証した。
論文 参考訳(メタデータ) (2020-01-10T05:29:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。