論文の概要: Discovering Multi-Hardware Mobile Models via Architecture Search
- arxiv url: http://arxiv.org/abs/2008.08178v2
- Date: Fri, 23 Apr 2021 20:42:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 21:47:22.584736
- Title: Discovering Multi-Hardware Mobile Models via Architecture Search
- Title(参考訳): アーキテクチャ検索によるマルチハードモバイルモデルの発見
- Authors: Grace Chu, Okan Arikan, Gabriel Bender, Weijun Wang, Achille Brighton,
Pieter-Jan Kindermans, Hanxiao Liu, Berkin Akin, Suyog Gupta, Andrew Howard
- Abstract要約: 複数のハードウェアにデプロイされるアプリケーションでは、デプロイされたハードウェアにまたがる異なる単一ハードウェアモデルを持つため、ハードウェア間で一貫したアウトプットを保証することは困難である、と私たちは主張する。
本稿では,複数のハードウェアにひとつのアーキテクチャを組み込むマルチハードウェアモデルを提案する。
- 参考スコア(独自算出の注目度): 24.604645092847125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hardware-aware neural architecture designs have been predominantly focusing
on optimizing model performance on single hardware and model development
complexity, where another important factor, model deployment complexity, has
been largely ignored. In this paper, we argue that, for applications that may
be deployed on multiple hardware, having different single-hardware models
across the deployed hardware makes it hard to guarantee consistent outputs
across hardware and duplicates engineering work for debugging and fixing. To
minimize such deployment cost, we propose an alternative solution,
multi-hardware models, where a single architecture is developed for multiple
hardware. With thoughtful search space design and incorporating the proposed
multi-hardware metrics in neural architecture search, we discover
multi-hardware models that give state-of-the-art (SoTA) performance across
multiple hardware in both average and worse case scenarios. For performance on
individual hardware, the single multi-hardware model yields similar or better
results than SoTA performance on accelerators like GPU, DSP and EdgeTPU which
was achieved by different models, while having similar performance with
MobilenetV3 Large Minimalistic model on mobile CPU.
- Abstract(参考訳): ハードウェアを意識したニューラルアーキテクチャの設計は、主に単一のハードウェア上でのモデルパフォーマンスの最適化とモデル開発の複雑さに焦点を当ててきた。
本稿では,複数のハードウェア上にデプロイされるアプリケーションに対して,デプロイされたハードウェアに異なる単一ハードウェアモデルを持つと,ハードウェア間の一貫性のある出力を保証することが困難になり,デバッグや修正のためのエンジニアリング作業が重複する,と主張する。
このようなデプロイメントコストを最小限に抑えるために,複数ハードウェア向けに単一のアーキテクチャを開発するマルチハードウェアモデルを提案する。
探索空間の設計を熟慮し,提案するマルチハードウェアメトリクスをニューラルアーキテクチャ探索に組み込むことで,平均的および最悪のケースシナリオにおいて,複数のハードウェアにおける最先端(sota)性能を実現するマルチハードウェアモデルを発見する。
個々のハードウェアのパフォーマンスについては、単一のマルチハードウェアモデルが、異なるモデルによって達成されたgpu、dsp、edgetpuなどのアクセラレータ上でのsomaパフォーマンスと同等あるいは優れた結果をもたらす一方で、mobilenetv3のモバイルcpu上での大規模最小限モデルと同等のパフォーマンスを持つ。
関連論文リスト
- Designing and Implementing a Generator Framework for a SIMD Abstraction Library [53.84310825081338]
SIMD抽象化ライブラリを生成するための新しいエンドツーエンドフレームワークであるTSLGenを提案する。
私たちのフレームワークは既存のライブラリに匹敵するもので、同じパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-26T13:25:38Z) - Multi-objective Differentiable Neural Architecture Search [58.67218773054753]
本研究では,パフォーマンスとハードウェアメトリクスのトレードオフのために,ユーザの好みを符号化するNASアルゴリズムを提案する。
提案手法は,既存のMOO NAS手法を,定性的に異なる検索空間やデータセットの広い範囲で性能良くする。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Hardware Aware Evolutionary Neural Architecture Search using
Representation Similarity Metric [12.52012450501367]
ハードウェア対応ニューラルアーキテクチャサーチ(ハードウェア対応ニューラルアーキテクチャサーチ、HW-NAS)は、特定のタスクとターゲットハードウェアのためにニューラルネットワークのアーキテクチャを自動的に設計する技術である。
HW-NASでは、重要な計算資源を必要とするため、候補アーキテクチャの性能を評価することが重要な課題である。
本稿では,HW-EvRSNASと呼ばれるハードウェア対応進化型NAS手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T11:58:40Z) - Statistical Hardware Design With Multi-model Active Learning [1.7596501992526474]
本稿では,効率的なハードウェア設計の課題を解決するために,モデルに基づく能動的学習手法を提案する。
提案手法は,設計空間探索と性能予測を同時に行うのに十分な精度のハードウェアモデルを提供する。
論文 参考訳(メタデータ) (2023-03-14T16:37:38Z) - AutoCoMet: Smart Neural Architecture Search via Co-Regulated Shaping
Reinforcement [5.026843258629663]
AutoCoMetは、さまざまなタイプのデバイスハードウェアとタスクコンテキストに最適化された最も適切なディープモデルアーキテクチャを3倍高速に学習する。
我々は,高忠実度ハードウェアメタビヘイビア予測器と協調して,スマートで高速なNASフレームワークを構築した。
論文 参考訳(メタデータ) (2022-03-29T10:11:22Z) - Searching for Two-Stream Models in Multivariate Space for Video
Recognition [80.25356538056839]
本稿では,巨大空間における2ストリーム映像モデルを効率的に検索できる実用的ニューラルアーキテクチャ探索手法を提案する。
設計空間において,性能が著しく向上した2ストリームモデルを自動的に発見できることを実証する。
論文 参考訳(メタデータ) (2021-08-30T02:03:28Z) - One-Shot Neural Ensemble Architecture Search by Diversity-Guided Search
Space Shrinking [97.60915598958968]
本稿では,この2つの課題に対処するワンショットニューラルアンサンブルアーキテクチャサーチ(NEAS)ソリューションを提案する。
最初の課題として,探索空間の縮小を導くために,多様性に基づく新しい指標を導入する。
第2の課題として,異なるモデル間の階層共有を効率向上のために学習する新たな探索次元を実現する。
論文 参考訳(メタデータ) (2021-04-01T16:29:49Z) - Pareto-Frontier-aware Neural Architecture Generation for Diverse Budgets [93.79297053429447]
既存の手法は、しばしばそれぞれの目標予算を独立したアーキテクチャで検索する。
モデル推論のみで任意の予算で効率的なアーキテクチャを自動生成する汎用アーキテクチャ生成器を提案する。
3つのプラットフォーム(モバイル、CPU、GPUなど)における広範な実験は、提案手法が既存のNAS法よりも優れていることを示している。
論文 参考訳(メタデータ) (2021-02-27T13:59:17Z) - Rethinking Co-design of Neural Architectures and Hardware Accelerators [31.342964958282092]
我々は,ニューラルアーキテクチャとハードウェアアクセラレータの協調設計の重要性と戦略を体系的に研究する。
実験の結果, 統合探索法は, 従来のプラットフォーム認識型ニューラルアーキテクチャ検索を一貫して上回っていることがわかった。
提案手法は, エッジ加速器のエネルギー消費量を, 同じ精度で最大2倍に削減できる。
論文 参考訳(メタデータ) (2021-02-17T07:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。