論文の概要: Understanding Time Variations of DNN Inference in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2209.05487v1
- Date: Mon, 12 Sep 2022 15:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 12:27:44.043182
- Title: Understanding Time Variations of DNN Inference in Autonomous Driving
- Title(参考訳): 自律運転におけるDNN推論の時間変化の理解
- Authors: Liangkai Liu, Yanzhi Wang, and Weisong Shi
- Abstract要約: ディープニューラルネットワーク(DNN)は、認識、決定、制御の精度が高いため、自律運転に広く利用されている。
本研究では,6つの視点からDNN推論の時間変化を詳細に解析する。
- 参考スコア(独自算出の注目度): 22.363568037281805
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep neural networks (DNNs) are widely used in autonomous driving due to
their high accuracy for perception, decision, and control. In safety-critical
systems like autonomous driving, executing tasks like sensing and perception in
real-time is vital to the vehicle's safety, which requires the application's
execution time to be predictable. However, non-negligible time variations are
observed in DNN inference. Current DNN inference studies either ignore the time
variation issue or rely on the scheduler to handle it. None of the current work
explains the root causes of DNN inference time variations. Understanding the
time variations of the DNN inference becomes a fundamental challenge in
real-time scheduling for autonomous driving. In this work, we analyze the time
variation in DNN inference in fine granularity from six perspectives: data,
I/O, model, runtime, hardware, and end-to-end perception system. Six insights
are derived in understanding the time variations for DNN inference.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、認識、決定、制御の精度が高いため、自律運転に広く利用されている。
自律運転のような安全クリティカルなシステムでは、リアルタイムに検知や認識などのタスクを実行することが車両の安全性にとって不可欠であり、アプリケーションの実行時間を予測する必要がある。
しかし、DNN推論では無視できない時間変化が観察される。
現在のDNN推論研究は、時間変動問題を無視するか、スケジューラに依存している。
現在の研究では、DNN推論時間の変化の根本原因は説明されていない。
DNN推論の時間変化を理解することは、自律運転のリアルタイムスケジューリングにおける根本的な課題となる。
本研究では,データ,i/o,モデル,ランタイム,ハードウェア,エンドツーエンド知覚システムという6つの視点から,dnn推論の時間的変動を微粒度で解析する。
6つの洞察は、DNN推論の時間変化を理解するために導かれる。
関連論文リスト
- NeuroView-RNN: It's About Time [25.668977252138905]
RNNにおける重要な解釈可能性の問題は、各時間毎の隠れた状態が意思決定プロセスにどのように貢献するかが明確でないことである。
本稿では,新しいRNNアーキテクチャのファミリとしてNeuroView-RNNを提案する。
我々は,さまざまな時系列データセットを用いて評価することで,NeuroView-RNNの利点を実証する。
論文 参考訳(メタデータ) (2022-02-23T22:29:11Z) - Black-box Safety Analysis and Retraining of DNNs based on Feature
Extraction and Clustering [0.9590956574213348]
DNNエラーの根本原因を自動的に識別するブラックボックスアプローチであるSAFEを提案する。
これは、ImageNetで事前訓練された転送学習モデルを使用して、エラー誘発画像から特徴を抽出する。
次に、密度に基づくクラスタリングアルゴリズムを適用し、誤りのもっともらしい原因をモデル化した画像の任意の形状のクラスタを検出する。
論文 参考訳(メタデータ) (2022-01-13T17:02:57Z) - Recurrent Neural Networks for Learning Long-term Temporal Dependencies
with Reanalysis of Time Scale Representation [16.32068729107421]
時間的表現としての忘れ門の解釈は、状態に対する損失の勾配が時間とともに指数関数的に減少するときに有効であると主張する。
本稿では,従来のモデルよりも長い時間スケールを表現できる新しいRNNの構築手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T06:22:58Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - SyReNN: A Tool for Analyzing Deep Neural Networks [8.55884254206878]
ディープニューラルネットワーク(DNN)は、さまざまな重要なドメインで急速に人気を集めています。
本稿では,そのシンボル表現を計算してDNNの理解と分析を行うSyReNNを紹介する。
論文 参考訳(メタデータ) (2021-01-09T00:27:23Z) - Continuous Safety Verification of Neural Networks [1.7056768055368385]
本稿では,前回のDNN安全検証問題から修正問題設定への移行結果のアプローチについて考察する。
全体的な概念は、認識された画像から視覚的方向を決定するために、DNNコントローラを装備する1/10ドルのスケールで評価される。
論文 参考訳(メタデータ) (2020-10-12T13:28:04Z) - A Survey on Assessing the Generalization Envelope of Deep Neural
Networks: Predictive Uncertainty, Out-of-distribution and Adversarial Samples [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くのアプリケーションで最先端のパフォーマンスを達成する。
入力を受けたDNNが、通常、その決定基準が不透明であるため、正しい出力を提供するかどうかを事前に判断することは困難である。
本調査は,機械学習手法,特にDNNの一般化性能について,大規模フレームワーク内の3つの分野を関連づけるものである。
論文 参考訳(メタデータ) (2020-08-21T09:12:52Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - Temporal Pulses Driven Spiking Neural Network for Fast Object
Recognition in Autonomous Driving [65.36115045035903]
スパイキングニューラルネットワーク(SNN)を用いた生時間パルスで直接物体認識問題に対処する手法を提案する。
各種データセットを用いて評価した結果,提案手法は最先端の手法に匹敵する性能を示しながら,優れた時間効率を実現している。
論文 参考訳(メタデータ) (2020-01-24T22:58:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。