論文の概要: SAGE: A Split-Architecture Methodology for Efficient End-to-End
Autonomous Vehicle Control
- arxiv url: http://arxiv.org/abs/2107.10895v1
- Date: Thu, 22 Jul 2021 19:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 13:48:04.527121
- Title: SAGE: A Split-Architecture Methodology for Efficient End-to-End
Autonomous Vehicle Control
- Title(参考訳): SAGE: 効率的なエンドツーエンド自律走行制御のための分割構造手法
- Authors: Arnav Malawade, Mohanad Odema, Sebastien Lajeunesse-DeGroot, Mohammad
Abdullah Al Faruque
- Abstract要約: 本稿では,Deep-Learning (DL)アーキテクチャの主要なエネルギー消費モジュールをクラウドに選択的にオフロードし,エッジエネルギーの利用を最適化する手法を提案する。
AVエッジデバイスとしてNvidia Jetson TX2と業界標準のNvidia Drive PX2を用いてSAGEを評価した。
エッジのみの計算と比較して、SAGEは低解像度カメラ1台、高解像度カメラ1台、高解像度カメラ3台で平均36.13%、47.07%、および55.66%のエネルギー消費を減少させる。
- 参考スコア(独自算出の注目度): 4.384298063606331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicles (AV) are expected to revolutionize transportation and
improve road safety significantly. However, these benefits do not come without
cost; AVs require large Deep-Learning (DL) models and powerful hardware
platforms to operate reliably in real-time, requiring between several hundred
watts to one kilowatt of power. This power consumption can dramatically reduce
vehicles' driving range and affect emissions. To address this problem, we
propose SAGE: a methodology for selectively offloading the key energy-consuming
modules of DL architectures to the cloud to optimize edge energy usage while
meeting real-time latency constraints. Furthermore, we leverage Head Network
Distillation (HND) to introduce efficient bottlenecks within the DL
architecture in order to minimize the network overhead costs of offloading with
almost no degradation in the model's performance. We evaluate SAGE using an
Nvidia Jetson TX2 and an industry-standard Nvidia Drive PX2 as the AV edge
devices and demonstrate that our offloading strategy is practical for a wide
range of DL models and internet connection bandwidths on 3G, 4G LTE, and WiFi
technologies. Compared to edge-only computation, SAGE reduces energy
consumption by an average of 36.13%, 47.07%, and 55.66% for an AV with one
low-resolution camera, one high-resolution camera, and three high-resolution
cameras, respectively. SAGE also reduces upload data size by up to 98.40%
compared to direct camera offloading.
- Abstract(参考訳): 自動運転車(AV)は交通に革命をもたらし、道路安全を大幅に改善すると予想されている。
avsは大規模なディープラーニング(dl)モデルと強力なハードウェアプラットフォームをリアルタイムに確実に運用し、数百ワットから1キロワットの電力を必要とする。
この電力消費は車の走行距離を劇的に減らし、排出に影響を与える。
この問題に対処するため,我々は,DLアーキテクチャの主要なエネルギー消費モジュールをクラウドに選択的にオフロードする手法であるSAGEを提案し,リアルタイムレイテンシ制約を満たしながらエッジエネルギーの利用を最適化する。
さらに,HND(Head Network Distillation)を利用して,DLアーキテクチャ内の効率的なボトルネックを導入し,モデルの性能をほとんど損なうことなく,オフロードのネットワークオーバーヘッドコストを最小限に抑える。
我々は、Nvidia Jetson TX2と業界標準のNvidia Drive PX2をAVエッジデバイスとしてSAGEを評価し、3G、4G LTE、WiFi技術上の広範囲のDLモデルとインターネット接続帯域において、我々のオフロード戦略が実用的であることを示した。
エッジのみの計算と比較して、SAGEは低解像度カメラ1台、高解像度カメラ1台、高解像度カメラ3台で平均36.13%、47.07%、および55.66%のエネルギー消費を減少させる。
SAGEはまた、ダイレクトカメラのオフロードと比較して、アップロードデータサイズを最大98.40%削減する。
関連論文リスト
- Fine-Tuning and Deploying Large Language Models Over Edges: Issues and Approaches [64.42735183056062]
大規模言語モデル(LLM)は、特殊モデルから多目的基礎モデルへと移行してきた。
LLMは印象的なゼロショット能力を示すが、ローカルデータセットとデプロイメントのための重要なリソースを微調整する必要がある。
論文 参考訳(メタデータ) (2024-08-20T09:42:17Z) - Dynamic Switch Layers For Unsupervised Learning [0.0]
オンデバイス機械学習(ODML)は、リソース制約のあるデバイスにおけるインテリジェントなアプリケーションを可能にする。
電力消費は大きな課題となり、モデル精度と電力効率のトレードオフを強要する。
我々は、GCレイヤの利点を教師なしの学習シナリオに拡張するために、Dynamic Switch Layer(DSL)を導入します。
論文 参考訳(メタデータ) (2024-04-05T21:03:11Z) - Multi-Objective Optimization for UAV Swarm-Assisted IoT with Virtual
Antenna Arrays [55.736718475856726]
無人航空機(UAV)ネットワークはIoT(Internet-of-Things)を支援するための有望な技術である
既存のUAV支援データ収集および普及スキームでは、UAVはIoTとアクセスポイントの間を頻繁に飛行する必要がある。
協調ビームフォーミングをIoTとUAVに同時に導入し、エネルギーと時間効率のデータ収集と普及を実現した。
論文 参考訳(メタデータ) (2023-08-03T02:49:50Z) - Data-Model-Circuit Tri-Design for Ultra-Light Video Intelligence on Edge
Devices [90.30316433184414]
本稿では,HDビデオストリーム上での高スループット,低コスト,高精度MOTのためのデータモデル・ハードウエア・トリデザイン・フレームワークを提案する。
現状のMOTベースラインと比較して、我々の三設計アプローチは12.5倍の遅延低減、20.9倍のフレームレート改善、5.83倍の低消費電力、9.78倍のエネルギー効率を実現でき、精度は低下しない。
論文 参考訳(メタデータ) (2022-10-16T16:21:40Z) - Edge YOLO: Real-Time Intelligent Object Detection System Based on
Edge-Cloud Cooperation in Autonomous Vehicles [5.295478084029605]
本稿では,エッジクラウド協調と再構成畳み込みニューラルネットワークに基づくオブジェクト検出(OD)システムを提案する。
このシステムは、クラウドコンピューティングリソースの計算能力と不均一な分散への過度な依存を効果的に回避することができる。
我々は,COCO 2017 および KITTI データセットにおける Edge YOLO の信頼性と効率を実験的に実証した。
論文 参考訳(メタデータ) (2022-05-30T09:16:35Z) - BSRA: Block-based Super Resolution Accelerator with Hardware Efficient
Pixel Attention [0.10547353841674209]
本稿では,ハードウェア効率のよいハードウェアアクセラレーションを提案する。
最終的な実装は、TSMC 40nm CMOSプロセスで毎秒30フレームのフルHD画像再構成をサポートすることができる。
論文 参考訳(メタデータ) (2022-05-02T09:56:29Z) - A Unified Cascaded Encoder ASR Model for Dynamic Model Sizes [54.83802872236367]
本稿では,異なる配置シナリオのモデルを統一した動的カスケードエンコーダ自動音声認識(ASR)モデルを提案する。
提案モデルでは, ベースラインのカスケードエンコーダモデルと比較して30%小さく, 消費電力を33%削減する。
大、中、小のモデルを統一した3つのサイズモデルは、最小品質の損失で37%の総サイズ縮小を達成する。
論文 参考訳(メタデータ) (2022-04-13T04:15:51Z) - Projected GANs Converge Faster [50.23237734403834]
GAN(Generative Adversarial Networks)は高品質な画像を生成するが、訓練は難しい。
生成したサンプルと実際のサンプルを固定された事前訓練された特徴空間に投影することで、これらの問題に大きく取り組みます。
我々の投影GANは画像品質、サンプル効率、収束速度を改善する。
論文 参考訳(メタデータ) (2021-11-01T15:11:01Z) - Safe Model-based Off-policy Reinforcement Learning for Eco-Driving in
Connected and Automated Hybrid Electric Vehicles [3.5259944260228977]
本研究は,エコドライブ問題に対するセーフオフポジーモデルに基づく強化学習アルゴリズムを提案する。
提案アルゴリズムは, モデルフリーエージェントと比較して, 平均速度が高く, 燃費も良好である。
論文 参考訳(メタデータ) (2021-05-25T03:41:29Z) - Robustifying the Deployment of tinyML Models for Autonomous
mini-vehicles [61.27933385742613]
本稿では,ループ内環境を含む自動運転ミニ車両を対象とした閉ループ学習フローを提案する。
我々は、小型CNNのファミリーを利用してミニ車両を制御し、コンピュータビジョンアルゴリズム、すなわち専門家を模倣してターゲット環境で学習する。
CNNのファミリを実行する場合、我々のソリューションはSTM32L4とk64f(Cortex-M4)の他の実装よりも優れており、レイテンシを13倍以上削減し、エネルギー消費を92%削減する。
論文 参考訳(メタデータ) (2020-07-01T07:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。