論文の概要: Virtuoso: Video-based Intelligence for real-time tuning on SOCs
- arxiv url: http://arxiv.org/abs/2112.13076v1
- Date: Fri, 24 Dec 2021 14:47:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 13:16:45.051712
- Title: Virtuoso: Video-based Intelligence for real-time tuning on SOCs
- Title(参考訳): Virtuoso: SOCのリアルタイムチューニングのためのビデオベースのインテリジェンス
- Authors: Jayoung Lee, PengCheng Wang, Ran Xu, Venkat Dasari, Noah Weston, Yin
Li, Saurabh Bagchi, and Somali Chaterji
- Abstract要約: Underlying Virtuosoはマルチブランチ実行カーネルで、精度-エネルギー-遅延軸の異なる動作ポイントで実行することができる。
我々は、Faster R-CNN (FRCNN)、YOLO v3、SSD、EfficientDet、SELSA、MEGA、REPP、FastAdapt、およびFRCNN+、YOLO+、SSD+、EfficientDet+を含む15の最先端または広く使用されているプロトコルをベンチマークする。
- 参考スコア(独自算出の注目度): 24.086595996055074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient and adaptive computer vision systems have been proposed to make
computer vision tasks, such as image classification and object detection,
optimized for embedded or mobile devices. These solutions, quite recent in
their origin, focus on optimizing the model (a deep neural network, DNN) or the
system by designing an adaptive system with approximation knobs. In spite of
several recent efforts, we show that existing solutions suffer from two major
drawbacks. First, the system does not consider energy consumption of the models
while making a decision on which model to run. Second, the evaluation does not
consider the practical scenario of contention on the device, due to other
co-resident workloads. In this work, we propose an efficient and adaptive video
object detection system, Virtuoso, which is jointly optimized for accuracy,
energy efficiency, and latency. Underlying Virtuoso is a multi-branch execution
kernel that is capable of running at different operating points in the
accuracy-energy-latency axes, and a lightweight runtime scheduler to select the
best fit execution branch to satisfy the user requirement. To fairly compare
with Virtuoso, we benchmark 15 state-of-the-art or widely used protocols,
including Faster R-CNN (FRCNN), YOLO v3, SSD, EfficientDet, SELSA, MEGA, REPP,
FastAdapt, and our in-house adaptive variants of FRCNN+, YOLO+, SSD+, and
EfficientDet+ (our variants have enhanced efficiency for mobiles). With this
comprehensive benchmark, Virtuoso has shown superiority to all the above
protocols, leading the accuracy frontier at every efficiency level on NVIDIA
Jetson mobile GPUs. Specifically, Virtuoso has achieved an accuracy of 63.9%,
which is more than 10% higher than some of the popular object detection models,
FRCNN at 51.1%, and YOLO at 49.5%.
- Abstract(参考訳): 画像分類や物体検出などのコンピュータビジョンタスクを組み込みデバイスやモバイルデバイスに最適化するために,効率的な適応型コンピュータビジョンシステムが提案されている。
これらのソリューションは、非常に最近のもので、近似ノブを持つ適応システムを設計することで、モデル(ディープニューラルネットワーク、DNN)またはシステムを最適化することに焦点を当てている。
最近の試みにもかかわらず、既存のソリューションには2つの大きな欠点がある。
第一に、システムはどのモデルを実行するかを決定する間、モデルのエネルギー消費を考慮しない。
第2に、他の共同居住者のワークロードのため、デバイス上での競合の現実的なシナリオを考慮していない。
本研究では,高効率で適応的な映像物体検出システムvirtuosoを提案する。
基盤となるvirtuosoは、精度・エネルギー・レイテンシ軸の異なる操作点で動作するマルチブランチ実行カーネルと、ユーザ要求を満たすために最適な実行ブランチを選択する軽量ランタイムスケジューラである。
Virtuosoと同等に比較するために、Faster R-CNN (FRCNN)、YOLO v3、SSD、EfficientDet、SELSA、MEGA、REPP、FastAdapt、およびFRCNN+、YOLO+、SSD+、EfficientDet+の社内適応版を含む15の最先端または広く使用されているプロトコルをベンチマークした。
この包括的なベンチマークにより、virtuosoは上記のプロトコルをすべて上回っており、nvidia jetsonモバイルgpuのあらゆる効率レベルで精度のフロンティアをリードしている。
具体的には、Virtuosoの精度は63.9%に達し、これは一般的なオブジェクト検出モデルよりも10%以上高く、FRCNNは51.1%、YOLOは49.5%である。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Efficient Modulation for Vision Networks [122.1051910402034]
我々は、効率的なビジョンネットワークのための新しい設計である効率的な変調を提案する。
変調機構が特に効率的なネットワークに適していることを実証する。
私たちのネットワークは、精度と効率のトレードオフをうまく達成できます。
論文 参考訳(メタデータ) (2024-03-29T03:48:35Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Neural Nets with a Newton Conjugate Gradient Method on Multiple GPUs [0.0]
ディープニューラルネットワークのトレーニングは多くの計算センターで計算リソースの共有を消費する。
本稿では,ベクトルのみに対するヘシアンの効果を必要とする新しい二階最適化手法を提案する。
提案手法を5つの代表的ニューラルネットワーク問題に対して2つの最先端技術と比較した。
論文 参考訳(メタデータ) (2022-08-03T12:38:23Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - PP-PicoDet: A Better Real-Time Object Detector on Mobile Devices [13.62426382827205]
実時間物体検出器のPP-PicoDetファミリは,モバイルデバイスの物体検出において優れた性能を発揮する。
モデルは、他の一般的なモデルと比較して、精度とレイテンシのトレードオフを改善する。
論文 参考訳(メタデータ) (2021-11-01T12:53:17Z) - FADNet++: Real-Time and Accurate Disparity Estimation with Configurable
Networks [19.29846600092521]
FADNet++は、分散度推定のための効率的なディープネットワークである。
リアルタイムアプリケーションのための高速なモデル推論速度で精度を高めることができる。
SceneFlowデータセットの新たな最先端結果を実現している。
論文 参考訳(メタデータ) (2021-10-06T08:50:33Z) - Toward Accurate Platform-Aware Performance Modeling for Deep Neural
Networks [0.17499351967216337]
機械学習に基づくPerfNetV2は、さまざまなGPUアクセラレータ上でのニューラルネットワークのパフォーマンスをモデル化するための、これまでの作業の精度を向上させる。
アプリケーションを利用すると、アプリケーションで使用される畳み込みニューラルネットワークの推論時間とトレーニング時間を予測することができる。
我々のケーススタディでは、PerfNetV2が13.1%のLeNet、AlexNet、VGG16、NVIDIA GTX-1080Tiで平均絶対パーセンテージエラーを発生し、ICBD 2018で発表された以前の研究のエラー率は200%に達する可能性がある。
論文 参考訳(メタデータ) (2020-12-01T01:42:23Z) - Scaling Up Deep Neural Network Optimization for Edge Inference [20.9711130126031]
ディープニューラルネットワーク(DNN)は、携帯電話、ドローン、ロボット、ウェアラブルといったエッジデバイスにますますデプロイされ、統合されている。
DNN推論を直接エッジデバイス(エッジ推論)で実行するためには、DNN設計を最適化することが不可欠である。
まず、プロキシデバイス上に構築された性能予測器を再利用し、性能単調性を利用してDNN最適化をスケールアップする。
第2のアプローチでは、見積もりが可能なスケーラブルなパフォーマンス予測器を構築します。
論文 参考訳(メタデータ) (2020-09-01T07:47:22Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。