論文の概要: Accelerating deep neural networks for efficient scene understanding in
automotive cyber-physical systems
- arxiv url: http://arxiv.org/abs/2107.09101v1
- Date: Mon, 19 Jul 2021 18:43:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 00:08:55.880607
- Title: Accelerating deep neural networks for efficient scene understanding in
automotive cyber-physical systems
- Title(参考訳): 自動車サイバー物理システムにおける効率的なシーン理解のためのディープニューラルネットワークの高速化
- Authors: Stavros Nousias, Erion-Vasilis Pikoulis, Christos Mavrokefalidis, Aris
S. Lalos
- Abstract要約: 自動車のCyber-Physical Systems(ACPS)はここ数十年でかなりの関心を集めている。
これらのシステムにおける最も重要な操作の1つは、環境に対する認識である。
ディープラーニングと、特にDeep Neural Networks(DNN)の使用は、視覚データから複雑でダイナミックなシーンを分析し、理解するための素晴らしい結果をもたらす。
- 参考スコア(独自算出の注目度): 2.4373900721120285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automotive Cyber-Physical Systems (ACPS) have attracted a significant amount
of interest in the past few decades, while one of the most critical operations
in these systems is the perception of the environment. Deep learning and,
especially, the use of Deep Neural Networks (DNNs) provides impressive results
in analyzing and understanding complex and dynamic scenes from visual data. The
prediction horizons for those perception systems are very short and inference
must often be performed in real time, stressing the need of transforming the
original large pre-trained networks into new smaller models, by utilizing Model
Compression and Acceleration (MCA) techniques. Our goal in this work is to
investigate best practices for appropriately applying novel weight sharing
techniques, optimizing the available variables and the training procedures
towards the significant acceleration of widely adopted DNNs. Extensive
evaluation studies carried out using various state-of-the-art DNN models in
object detection and tracking experiments, provide details about the type of
errors that manifest after the application of weight sharing techniques,
resulting in significant acceleration gains with negligible accuracy losses.
- Abstract(参考訳): 自動車のサイバー物理システム(ACPS)は過去数十年でかなりの関心を集めているが、これらのシステムにおける最も重要な操作の1つは環境に対する認識である。
深層学習、特に深層ニューラルネットワーク(dnn)の使用は、視覚データから複雑でダイナミックなシーンを分析し、理解するための素晴らしい結果をもたらす。
これらの知覚システムの予測地平線は非常に短く、しばしば推論をリアルタイムに行う必要があり、モデル圧縮・加速(MCA)技術を利用して、元の大きな事前学習されたネットワークを新しい小さなモデルに変換する必要性を強調している。
本研究の目的は,新しい重み付け手法を適切に適用するためのベストプラクティスの検討,利用可能な変数の最適化と,広く採用されているdnnの大幅な加速に向けてのトレーニング手順を検討することである。
物体検出および追跡実験における様々な最先端dnnモデルを用いた広範囲な評価研究は、重み共有技術の適用後に現れるエラーの種類を詳細に示し、その結果、精度損失を無視できるような大きな加速向上をもたらす。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Precision Machine Learning [5.15188009671301]
様々な関数近似法を比較し,パラメータやデータの増加とともにスケールする方法について検討する。
ニューラルネットワークは、しばしば高次元の例において古典的近似法より優れていることが判明した。
我々は,ニューラルネットワークを極端に低損失に訓練する訓練手法を開発した。
論文 参考訳(メタデータ) (2022-10-24T17:58:30Z) - Asymptotic-Preserving Neural Networks for hyperbolic systems with
diffusive scaling [0.0]
Asymptotic-Preserving Neural Networks (APNN) は,標準のDNNやPINNと比較して,問題スケールの違いに対して,かなり優れた結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-17T13:30:34Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - Leveraging the structure of dynamical systems for data-driven modeling [111.45324708884813]
トレーニングセットとその構造が長期予測の品質に与える影響を考察する。
トレーニングセットのインフォームドデザインは,システムの不変性と基盤となるアトラクションの構造に基づいて,結果のモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T20:09:20Z) - A New Clustering-Based Technique for the Acceleration of Deep
Convolutional Networks [2.7393821783237184]
MCA(Model Compression and Acceleration)技術は、大規模な事前学習ネットワークをより小さなモデルに変換するために用いられる。
本稿では,採用したセントロイド/表現量を増やすクラスタリングに基づく手法を提案する。
これは、被雇用者に対して特別な構造を課すことによって達成され、これは、目の前の問題の特異性によって実現される。
論文 参考訳(メタデータ) (2021-07-19T18:22:07Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - A Survey on Impact of Transient Faults on BNN Inference Accelerators [0.9667631210393929]
ビッグデータブームにより、非常に大きなデータセットへのアクセスと分析が容易になります。
ディープラーニングモデルは、計算能力と極めて高いメモリアクセスを必要とする。
本研究では,ソフトエラーが独自の深層学習アルゴリズムに与える影響が画像の劇的な誤分類を引き起こす可能性を実証した。
論文 参考訳(メタデータ) (2020-04-10T16:15:55Z) - The large learning rate phase of deep learning: the catapult mechanism [50.23041928811575]
問題解決可能なトレーニングダイナミクスを備えたニューラルネットワークのクラスを提示する。
現実的なディープラーニング環境において,モデルの予測とトレーニングのダイナミクスとの間には,よい一致がある。
我々の結果は、異なる学習率でトレーニングされたモデルの特性に光を当てたと信じています。
論文 参考訳(メタデータ) (2020-03-04T17:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。