論文の概要: Optimizing Deep Learning Models For Raspberry Pi
- arxiv url: http://arxiv.org/abs/2304.13039v1
- Date: Tue, 25 Apr 2023 11:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 16:51:59.176542
- Title: Optimizing Deep Learning Models For Raspberry Pi
- Title(参考訳): Raspberry Piのディープラーニングモデル最適化
- Authors: Salem Ameen and Kangaranmulle Siriwardana and Theo Theodoridis
- Abstract要約: Raspberry Piのディープラーニングモデルの実行と最適化は、低消費電力デバイスの計算とエネルギーの制約を克服するのに役立ちます。
これらのアプローチをさらに詳細に検討し、Raspberry Piのディープラーニングモデルを最適化する効果について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models have become increasingly popular for a wide range of
applications, including computer vision, natural language processing, and
speech recognition. However, these models typically require large amounts of
computational resources, making them challenging to run on low-power devices
such as the Raspberry Pi. One approach to addressing this challenge is to use
pruning techniques to reduce the size of the deep learning models. Pruning
involves removing unimportant weights and connections from the model, resulting
in a smaller and more efficient model. Pruning can be done during training or
after the model has been trained. Another approach is to optimize the deep
learning models specifically for the Raspberry Pi architecture. This can
include optimizing the model's architecture and parameters to take advantage of
the Raspberry Pi's hardware capabilities, such as its CPU and GPU.
Additionally, the model can be optimized for energy efficiency by minimizing
the amount of computation required. Pruning and optimizing deep learning models
for the Raspberry Pi can help overcome the computational and energy constraints
of low-power devices, making it possible to run deep learning models on a wider
range of devices. In the following sections, we will explore these approaches
in more detail and discuss their effectiveness for optimizing deep learning
models for the Raspberry Pi.
- Abstract(参考訳): ディープラーニングモデルは、コンピュータビジョン、自然言語処理、音声認識など、幅広いアプリケーションで広く普及しています。
しかし、これらのモデルは通常、大量の計算リソースを必要とするため、raspberry piのような低消費電力デバイスでの実行は困難である。
この課題に対処する1つのアプローチは、プルーニング技術を使用してディープラーニングモデルのサイズを減らすことだ。
プルーニングは、重要でない重みと接続をモデルから取り除き、より小さく、より効率的なモデルをもたらす。
プルーニングはトレーニング中またはモデルがトレーニングされた後に行うことができる。
もう1つのアプローチは、特にraspberry piアーキテクチャのためにディープラーニングモデルを最適化することです。
これには、モデルのアーキテクチャとパラメータを最適化して、CPUやGPUなどのRaspberry Piのハードウェア機能を活用することが含まれる。
さらに、モデルに必要な計算量を最小化することで、エネルギー効率に最適化することができる。
raspberry pi用のディープラーニングモデルのプルーニングと最適化は、低消費電力デバイスの計算とエネルギーの制約を克服する上で有効であり、幅広いデバイスでディープラーニングモデルを実行できる。
以下の節では、これらのアプローチをさらに詳細に検討し、Raspberry Piのディープラーニングモデルを最適化する効果について論じる。
関連論文リスト
- Apple Intelligence Foundation Language Models [109.60033785567484]
本報告では、モデルアーキテクチャ、モデルトレーニングに使用されるデータ、トレーニングプロセス、評価結果について述べる。
私たちは、Responsible AIと、モデル開発全体を通して原則がどのように適用されているかに重点を置いています。
論文 参考訳(メタデータ) (2024-07-29T18:38:49Z) - Enabling High-Sparsity Foundational Llama Models with Efficient Pretraining and Deployment [56.44025052765861]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、そのサイズは計算のボトルネックを生み出している。
そこで本研究では,高性能LLMの高精度かつ疎結合な基本バージョンを作成するための新しいアプローチを提案する。
スパース量子化LLaMAの最大8.6倍のCPU上での総高速化を示す。
論文 参考訳(メタデータ) (2024-05-06T16:03:32Z) - ArthModel: Enhance Arithmetic Skills to Large Language Model [0.0]
この作業は、さまざまな思考方法、トレーニング方法、言語モデルの使用方法を提供します。
コードとモデルはurlhttps://www.eteced.com/eteced/arithmetic_finetuning_v1でリリースされる。
論文 参考訳(メタデータ) (2023-11-30T15:06:50Z) - eP-ALM: Efficient Perceptual Augmentation of Language Models [70.47962271121389]
本稿では,既存モデルの適応性を向上するための直接的な取り組みを提案し,認識を伴う言語モデルの拡張を提案する。
視覚言語タスクに事前訓練されたモデルを適用するための既存のアプローチは、その効率を妨げているいくつかの重要なコンポーネントに依存している。
総パラメータの99%以上を凍結し,1つの直線射影層のみをトレーニングし,1つのトレーニング可能なトークンのみを予測することにより,我々のアプローチ(eP-ALM)は,VQAとCaptioningの他のベースラインよりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2023-03-20T19:20:34Z) - Masterful: A Training Platform for Computer Vision Models [0.31458406135473804]
Masterfulはディープラーニングコンピュータビジョンモデルをトレーニングするソフトウェアプラットフォームである。
データとモデルアーキテクチャはプラットフォームへの入力であり、出力はトレーニングされたモデルである。
論文 参考訳(メタデータ) (2022-05-21T00:20:09Z) - M6-10T: A Sharing-Delinking Paradigm for Efficient Multi-Trillion
Parameter Pretraining [55.16088793437898]
極端なモデルのトレーニングには大量の計算とメモリフットプリントが必要です。
本稿では,高メモリフットプリント要求大モデルのための簡単なトレーニング戦略"Pseudo-to-Real"を提案する。
論文 参考訳(メタデータ) (2021-10-08T04:24:51Z) - Top-KAST: Top-K Always Sparse Training [50.05611544535801]
トレーニングを通して一定間隔を保存するTop-KASTを提案する。
確立したImageNetベンチマークのトレーニングモデルでは,従来の作業と同等かそれ以上に動作可能であることを示す。
ImageNetの結果に加えて、言語モデリングの分野においても、我々のアプローチを実証しています。
論文 参考訳(メタデータ) (2021-06-07T11:13:05Z) - Deeplite Neutrino: An End-to-End Framework for Constrained Deep Learning
Model Optimization [2.762905634186996]
ディープラーニングモデルのプロダクション対応最適化のためのブラックボックスフレームワークであるDeeplite Neutrinoを導入する。
フレームワークは既存のプロダクションパイプラインに簡単に組み込むことができ、Python Packageとして利用できる。
フレームワークは現在本番環境で使用されており、いくつかのクライアントによる結果と証言が要約されている。
論文 参考訳(メタデータ) (2021-01-11T18:07:45Z) - Understanding Training Efficiency of Deep Learning Recommendation Models
at Scale [8.731263641794897]
本稿では,リコメンデーションモデルのトレーニングにGPUを使うことの難しさについて説明する。
スケールにおけるハードウェア効率に影響を与える要因と、新しいスケールアップGPUサーバ設計であるZionから学んだこと。
論文 参考訳(メタデータ) (2020-11-11T01:21:43Z) - Training Deep Neural Networks with Constrained Learning Parameters [4.917317902787792]
ディープラーニングタスクのかなりの部分はエッジコンピューティングシステムで実行される。
我々は, Combinatorial Neural Network Training Algorithm (CNNTrA)を提案する。
CoNNTrAは、MNIST、Iris、ImageNetデータセット上で、第三次学習パラメータでディープラーニングモデルをトレーニングする。
以上の結果から,CNNTrAモデルはメモリを32倍に削減し,バックプロパゲーションモデルと同程度の誤差を有することがわかった。
論文 参考訳(メタデータ) (2020-09-01T16:20:11Z) - Train Large, Then Compress: Rethinking Model Size for Efficient Training
and Inference of Transformers [94.43313684188819]
本研究では,計算によって制限されたNLPタスクのトランスフォーマーモデルに着目し,モデルサイズの影響について検討する。
まず最初に、より小さなTransformerモデルがイテレーション毎に高速に実行されているにもかかわらず、より広いモデルとより深いモデルがはるかに少ないステップで収束していることを示します。
これは、大きなTransformerモデルのトレーニング効率と小さなTransformerモデルの推論効率との間に明らかなトレードオフをもたらす。
論文 参考訳(メタデータ) (2020-02-26T21:17:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。