論文の概要: Design Automation for Fast, Lightweight, and Effective Deep Learning
Models: A Survey
- arxiv url: http://arxiv.org/abs/2208.10498v1
- Date: Mon, 22 Aug 2022 12:12:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:49:56.715760
- Title: Design Automation for Fast, Lightweight, and Effective Deep Learning
Models: A Survey
- Title(参考訳): 高速で軽量で効率的なディープラーニングモデルのための設計自動化:調査
- Authors: Dalin Zhang, Kaixuan Chen, Yan Zhao, Bin Yang, Lina Yao, Christian S.
Jensen
- Abstract要約: 本調査では,エッジコンピューティングを対象としたディープラーニングモデルの設計自動化技術について述べる。
これは、有効性、軽量性、計算コストの観点からモデルの習熟度を定量化するために一般的に使用される主要なメトリクスの概要と比較を提供する。
この調査は、ディープモデル設計自動化技術の最先端の3つのカテゴリをカバーしている。
- 参考スコア(独自算出の注目度): 53.258091735278875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning technologies have demonstrated remarkable effectiveness in a
wide range of tasks, and deep learning holds the potential to advance a
multitude of applications, including in edge computing, where deep models are
deployed on edge devices to enable instant data processing and response. A key
challenge is that while the application of deep models often incurs substantial
memory and computational costs, edge devices typically offer only very limited
storage and computational capabilities that may vary substantially across
devices. These characteristics make it difficult to build deep learning
solutions that unleash the potential of edge devices while complying with their
constraints. A promising approach to addressing this challenge is to automate
the design of effective deep learning models that are lightweight, require only
a little storage, and incur only low computational overheads. This survey
offers comprehensive coverage of studies of design automation techniques for
deep learning models targeting edge computing. It offers an overview and
comparison of key metrics that are used commonly to quantify the proficiency of
models in terms of effectiveness, lightness, and computational costs. The
survey then proceeds to cover three categories of the state-of-the-art of deep
model design automation techniques: automated neural architecture search,
automated model compression, and joint automated design and compression.
Finally, the survey covers open issues and directions for future research.
- Abstract(参考訳): ディープラーニング技術は、幅広いタスクにおいて顕著な効果を示しており、ディープラーニングは、エッジコンピューティングを含む多数のアプリケーションを前進させる可能性を秘めている。
重要な課題は、深層モデルの適用がかなりのメモリと計算コストを発生させることが多いが、エッジデバイスは通常、デバイス間で大きく異なる非常に限られたストレージと計算能力しか提供しないことだ。
これらの特徴により、エッジデバイスの可能性を解き放つディープラーニングソリューションの構築が困難になる。
この課題に取り組むための有望なアプローチは、軽量で少しのストレージしか必要とせず、計算オーバーヘッドの少ない効果的なディープラーニングモデルの設計を自動化することである。
この調査は、エッジコンピューティングをターゲットとしたディープラーニングモデルの設計自動化技術の研究を包括的にカバーする。
有効性、明度、計算コストの観点からモデルの熟練度を定量化するために一般的に使用される主要な指標の概要と比較を提供する。
この調査は、ディープモデル設計自動化技術の最先端技術である、自動ニューラルネットワーク検索、自動モデル圧縮、統合自動設計と圧縮の3つのカテゴリをカバーする。
最後に、今後の研究の課題と方向性について述べる。
関連論文リスト
- Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - FreeREA: Training-Free Evolution-based Architecture Search [17.202375422110553]
FreeREAは、トレーニングなしメトリクスの最適化組み合わせを利用してアーキテクチャをランク付けする、独自のセルベースの進化NASアルゴリズムである。
本実験はNAS-Bench-101とNATS-Benchの共通ベンチマークを用いて,フリーレアがモデル自動設計のための高速で効率的かつ効果的な探索手法であることを実証した。
論文 参考訳(メタデータ) (2022-06-17T11:16:28Z) - Enable Deep Learning on Mobile Devices: Methods, Systems, and
Applications [46.97774949613859]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野において前例のない成功を収めた
しかし、それらの優れた性能は、計算の複雑さのかなりのコストを伴っている。
本稿では,効率的なディープラーニング手法,システム,応用について概説する。
論文 参考訳(メタデータ) (2022-04-25T16:52:48Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Cost-effective Machine Learning Inference Offload for Edge Computing [0.3149883354098941]
本稿では,インストール・ベース・オンプレミス(edge)計算資源を活用した新しいオフロード機構を提案する。
提案するメカニズムにより、エッジデバイスは、リモートクラウドを使用する代わりに、重い計算集約的なワークロードをエッジノードにオフロードすることができる。
論文 参考訳(メタデータ) (2020-12-07T21:11:02Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - Knowledge Distillation: A Survey [87.51063304509067]
ディープニューラルネットワークは、特にコンピュータビジョンタスクにおいて、産業と学術の両方で成功している。
リソースが限られているデバイスに、これらの面倒なディープモデルをデプロイすることは難しい。
知識蒸留は、大きな教師モデルから小さな学生モデルを効果的に学習する。
論文 参考訳(メタデータ) (2020-06-09T21:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。