論文の概要: SONAR: Joint Architecture and System Optimization Search
- arxiv url: http://arxiv.org/abs/2208.12218v1
- Date: Thu, 25 Aug 2022 17:07:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:40:54.238941
- Title: SONAR: Joint Architecture and System Optimization Search
- Title(参考訳): SONAR: 統合アーキテクチャとシステム最適化検索
- Authors: Elias J\"a\"asaari, Michelle Ma, Ameet Talwalkar, Tianqi Chen
- Abstract要約: SONARは、両方の検索プロセスに早期停止を適用することにより、予測精度と推論遅延を効率的に最適化することを目的としている。
複数の異なるハードウェアバックエンドに関する実験により、SONARはブルートフォースアプローチの30倍の速度で、ほぼ最適なアーキテクチャを識別できることがわかった。
- 参考スコア(独自算出の注目度): 23.031629325665875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing need to deploy machine learning for different tasks on a
wide array of new hardware platforms. Such deployment scenarios require
tackling multiple challenges, including identifying a model architecture that
can achieve a suitable predictive accuracy (architecture search), and finding
an efficient implementation of the model to satisfy underlying
hardware-specific systems constraints such as latency (system optimization
search). Existing works treat architecture search and system optimization
search as separate problems and solve them sequentially. In this paper, we
instead propose to solve these problems jointly, and introduce a simple but
effective baseline method called SONAR that interleaves these two search
problems. SONAR aims to efficiently optimize for predictive accuracy and
inference latency by applying early stopping to both search processes. Our
experiments on multiple different hardware back-ends show that SONAR identifies
nearly optimal architectures 30 times faster than a brute force approach.
- Abstract(参考訳): さまざまなタスクのための機械学習を、さまざまな新しいハードウェアプラットフォームにデプロイする必要性が高まっている。
このようなデプロイメントシナリオでは、適切な予測精度(アーキテクチャ検索)を達成するモデルアーキテクチャの特定や、レイテンシ(システム最適化検索)などのハードウェア固有のシステムの制約を満たすための効率的なモデル実装など、複数の課題に取り組む必要がある。
既存の研究では、アーキテクチャ検索とシステム最適化検索を別個の問題として扱い、逐次的に解決している。
本稿では,これらの問題を共同で解決し,SONARと呼ばれるシンプルで効果的なベースライン手法を導入し,これらの2つの探索問題を解き明かす。
SONARは、両方の検索プロセスに早期停止を適用することにより、予測精度と推論遅延を効率的に最適化することを目的としている。
複数の異なるハードウェアバックエンドに関する実験から、sonarはブルートフォースアプローチの30倍の速度で最適なアーキテクチャを識別できることがわかった。
関連論文リスト
- Real-Time Image Segmentation via Hybrid Convolutional-Transformer Architecture Search [49.81353382211113]
マルチヘッド自己認識を高分解能表現CNNに効率的に組み込むという課題に対処する。
本稿では,高解像度機能の利点をフル活用したマルチターゲットマルチブランチ・スーパーネット手法を提案する。
本稿では,Hybrid Convolutional-Transformer Architecture Search (HyCTAS)法を用いて,軽量畳み込み層とメモリ効率のよい自己保持層を最適に組み合わせたモデルを提案する。
論文 参考訳(メタデータ) (2024-03-15T15:47:54Z) - Pareto-aware Neural Architecture Generation for Diverse Computational
Budgets [94.27982238384847]
既存の手法は、しばしば各目標予算に対して独立したアーキテクチャ探索プロセスを実行する。
提案するニューラルアーキテクチャジェネレータ(PNAG)は,任意の予算に対して,推論によって最適なアーキテクチャを動的に生成する。
このような共同探索アルゴリズムは、全体の検索コストを大幅に削減するだけでなく、結果も改善する。
論文 参考訳(メタデータ) (2022-10-14T08:30:59Z) - Efficient Joint-Dimensional Search with Solution Space Regularization
for Real-Time Semantic Segmentation [27.94898516315886]
この問題に対して,リアルタイムに実行可能な最適ネットワーク構造を探索する。
新たな解空間規則化(SSR)損失は、スーパーネットが離散的に収束することを効果的に促すために最初に提案される。
より高効率な探索を実現するために,新しい階層的・プログレッシブ・ソリューション・スペース・スライキング法を提案する。
論文 参考訳(メタデータ) (2022-08-10T11:07:33Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - Elastic Architecture Search for Diverse Tasks with Different Resources [87.23061200971912]
本研究では,異なるリソースを持つ多様なタスクを効率的に配置する上で,クラス群に対応するリソース制約や関心のタスクをテスト時に動的に指定する,新たな課題について検討する。
従来のNASアプローチでは、全てのクラスのアーキテクチャを同時に設計することを模索しており、これはいくつかの個別のタスクに最適ではないかもしれない。
本稿では、様々なリソース制約のある多様なタスクに対して、実行時に即時特殊化を可能にする、Elastic Architecture Search (EAS)と呼ばれる斬新で一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T00:54:27Z) - Partially-Connected Differentiable Architecture Search for Deepfake and
Spoofing Detection [14.792884010821762]
本稿では,darts( differentiable architecture search)アプローチをdeepfakeおよびspoofing検出問題に適用した最初の事例について報告する。
DARTSは連続的かつ微分可能な検索空間で動作し、アーキテクチャとパラメータの両方を勾配降下により最適化することができる。
論文 参考訳(メタデータ) (2021-04-07T13:53:20Z) - One-Shot Neural Ensemble Architecture Search by Diversity-Guided Search
Space Shrinking [97.60915598958968]
本稿では,この2つの課題に対処するワンショットニューラルアンサンブルアーキテクチャサーチ(NEAS)ソリューションを提案する。
最初の課題として,探索空間の縮小を導くために,多様性に基づく新しい指標を導入する。
第2の課題として,異なるモデル間の階層共有を効率向上のために学習する新たな探索次元を実現する。
論文 参考訳(メタデータ) (2021-04-01T16:29:49Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。