論文の概要: GPUNet: Searching the Deployable Convolution Neural Networks for GPUs
- arxiv url: http://arxiv.org/abs/2205.00841v1
- Date: Tue, 26 Apr 2022 21:48:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-08 23:11:13.405007
- Title: GPUNet: Searching the Deployable Convolution Neural Networks for GPUs
- Title(参考訳): GPUNet:GPUのためのデプロイ可能な畳み込みニューラルネットワークの検索
- Authors: Linnan Wang, Chenhan Yu, Satish Salian, Slawomir Kierat, Szymon
Migacz, Alex Fit Florea
- Abstract要約: 我々は、レイテンシと精度に影響を与える顕著な要因からなる新しい検索空間を探索する分散NASシステムを構築した。
GPUをターゲットにしているので、NAS最適化モデルをGPUNetと名付けます。
1$ms$以内では、GPUNetはEfficientNet-XやFBNetV3よりも2倍高速で精度が向上している。
- 参考スコア(独自算出の注目度): 2.687262067349744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Customizing Convolution Neural Networks (CNN) for production use has been a
challenging task for DL practitioners. This paper intends to expedite the model
customization with a model hub that contains the optimized models tiered by
their inference latency using Neural Architecture Search (NAS). To achieve this
goal, we build a distributed NAS system to search on a novel search space that
consists of prominent factors to impact latency and accuracy. Since we target
GPU, we name the NAS optimized models as GPUNet, which establishes a new SOTA
Pareto frontier in inference latency and accuracy. Within 1$ms$, GPUNet is 2x
faster than EfficientNet-X and FBNetV3 with even better accuracy. We also
validate GPUNet on detection tasks, and GPUNet consistently outperforms
EfficientNet-X and FBNetV3 on COCO detection tasks in both latency and
accuracy. All of these data validate that our NAS system is effective and
generic to handle different design tasks. With this NAS system, we expand
GPUNet to cover a wide range of latency targets such that DL practitioners can
deploy our models directly in different scenarios.
- Abstract(参考訳): 製品利用のための畳み込みニューラルネットワーク(CNN)のカスタマイズは、DL実践者にとって難しい課題である。
本稿では,ニューラルアーキテクチャサーチ(NAS)を用いて,推論遅延によって結合されたモデルを含むモデルハブを用いて,モデルカスタマイズを高速化することを目的とする。
この目標を達成するために,我々は分散nasシステムを構築し,レイテンシと精度に影響を与える重要な要因からなる新しい検索空間を探索する。
GPUをターゲットにしているため、NAS最適化モデルをGPUNetと呼び、推論レイテンシと精度において新たなSOTA Paretoフロンティアを確立する。
1$ms$以内では、GPUNetはEfficientNet-XやFBNetV3よりも2倍高速で精度が向上している。
また、検出タスクにおいてGPUNetを検証するとともに、レイテンシと精度の両方で、COCO検出タスクにおいて、GPUNetはEfficientNet-XとFBNetV3を一貫して上回ります。
これらのデータはすべて、nasシステムが異なる設計タスクを処理するのに効果的で汎用的であることを検証します。
このNASシステムでは、GPUNetを拡張して、DL実践者がさまざまなシナリオでモデルを直接デプロイできるように、幅広いレイテンシターゲットをカバーする。
関連論文リスト
- Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - EEEA-Net: An Early Exit Evolutionary Neural Architecture Search [6.569256728493014]
限られた計算資源を持つオンデバイスプロセッサに適した畳み込みニューラルネットワーク(CNN)アーキテクチャの探索。
The Early Exit Population Initialisation (EE-PI) for Evolutionary Algorithm (EA)。
CIFAR-10は2.46%、CIFAR-100は15.02%、ImageNetデータセットは23.8%である。
論文 参考訳(メタデータ) (2021-08-13T10:23:19Z) - FLASH: Fast Neural Architecture Search with Hardware Optimization [7.263481020106725]
ニューラルアーキテクチャサーチ(NAS)は、効率的かつ高性能なディープニューラルネットワーク(DNN)を設計するための有望な手法である
本稿では,実ハードウェアプラットフォーム上でのDNNの精度と性能を協調的に最適化する,非常に高速なNAS手法であるFLASHを提案する。
論文 参考訳(メタデータ) (2021-08-01T23:46:48Z) - Toward Accurate Platform-Aware Performance Modeling for Deep Neural
Networks [0.17499351967216337]
機械学習に基づくPerfNetV2は、さまざまなGPUアクセラレータ上でのニューラルネットワークのパフォーマンスをモデル化するための、これまでの作業の精度を向上させる。
アプリケーションを利用すると、アプリケーションで使用される畳み込みニューラルネットワークの推論時間とトレーニング時間を予測することができる。
我々のケーススタディでは、PerfNetV2が13.1%のLeNet、AlexNet、VGG16、NVIDIA GTX-1080Tiで平均絶対パーセンテージエラーを発生し、ICBD 2018で発表された以前の研究のエラー率は200%に達する可能性がある。
論文 参考訳(メタデータ) (2020-12-01T01:42:23Z) - LC-NAS: Latency Constrained Neural Architecture Search for Point Cloud
Networks [73.78551758828294]
LC-NASは、最小計算コストでポイントクラウド分類のための最先端アーキテクチャを見つけることができる。
検索したアーキテクチャが、適度に低い精度で、望ましいレイテンシを実現する方法を示します。
論文 参考訳(メタデータ) (2020-08-24T10:30:21Z) - BRP-NAS: Prediction-based NAS using GCNs [21.765796576990137]
BRP-NASは、グラフ畳み込みネットワーク(GCN)に基づく正確な性能予測によって実現された効率的なハードウェア対応NASである
提案手法はNAS-Bench-101とNAS-Bench-201の先行手法よりも優れていることを示す。
また、幅広いデバイスで動作するNAS-Bench-201モデルのレイテンシデータセットであるLatBenchもリリースしました。
論文 参考訳(メタデータ) (2020-07-16T21:58:43Z) - Making DensePose fast and light [78.49552144907513]
このタスクを解くことができる既存のニューラルネットワークモデルは、非常にパラメータ化されている。
現在のモデルで端末のDense Pose推論を有効にするには、高価なサーバーサイドのインフラをサポートし、安定したインターネット接続が必要である。
本研究では,DensePose R-CNNモデルのアーキテクチャを再設計することで,最終的なネットワークがその精度の大部分を維持しつつ,より軽量で高速なネットワークを実現することを目的とする。
論文 参考訳(メタデータ) (2020-06-26T19:42:20Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。