論文の概要: ImageNet Challenging Classification with the Raspberry Pi: An
Incremental Local Stochastic Gradient Descent Algorithm
- arxiv url: http://arxiv.org/abs/2203.11853v1
- Date: Mon, 21 Mar 2022 14:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 13:27:51.172688
- Title: ImageNet Challenging Classification with the Raspberry Pi: An
Incremental Local Stochastic Gradient Descent Algorithm
- Title(参考訳): ImageNet Challenging Classification with the Raspberry Pi: An Incremental Local Stochastic Gradient Descent Algorithm
- Authors: Thanh-Nghi Do
- Abstract要約: そこで我々は,Raspberry Pi上で画像Netデータセットを扱うために,新たな漸進的局所勾配勾配(SGD)を提案する。
Raspberry Pi 4を用いた局所SGDアルゴリズムは,PC上で動作している最先端の線形SVMよりも高速かつ高精度である。
- 参考スコア(独自算出の注目度): 0.38073142980732994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With rising powerful, low-cost embedded devices, the edge computing has
become an increasingly popular choice. In this paper, we propose a new
incremental local stochastic gradient descent (SGD) tailored on the Raspberry
Pi to deal with large ImageNet dataset having 1,261,405 images with 1,000
classes. The local SGD splits the data block into $k$ partitions using $k$means
algorithm and then it learns in the parallel way SGD models in each data
partition to classify the data locally. The incremental local SGD sequentially
loads small data blocks of the training dataset to learn local SGD models. The
numerical test results on Imagenet dataset show that our incremental local SGD
algorithm with the Raspberry Pi 4 is faster and more accurate than the
state-of-the-art linear SVM run on a PC Intel(R) Core i7-4790 CPU, 3.6 GHz, 4
cores.
- Abstract(参考訳): 強力で低コストな組み込みデバイスの増加に伴い、エッジコンピューティングはますます人気が高まっている。
本論文では,1,261,405画像と1000クラスからなる大規模イメージネットデータセットを扱うために,raspberry pi用に調整した新しいインクリメンタル局所確率勾配勾配勾配 (sgd) を提案する。
ローカルなSGDは$k$meansアルゴリズムを使ってデータブロックを$k$パーティションに分割し、各データパーティション内のSGDモデルを並列的に学習して、データをローカルに分類する。
インクリメンタルローカルSGDは、トレーニングデータセットの小さなデータブロックを順次ロードして、ローカルSGDモデルを学ぶ。
Imagenetデータセットの数値テスト結果から,我々のRaspberry Pi 4による局所SGDアルゴリズムは,PC Intel(R) Core i7-4790 CPU,3.6GHz,4コア上で動作する最先端の線形SVMよりも高速かつ高精度であることがわかった。
関連論文リスト
- Minuet: Accelerating 3D Sparse Convolutions on GPUs [9.54287796030519]
スパース・コンボリューション(SC)は、本質的にスパースである3Dポイント・クラウドの処理に広く用いられている。
本研究では,従来の最先端のSCエンジンの欠点を分析し,最新のGPUに適した新しいメモリ効率のSCエンジンであるMinuetを提案する。
私たちの評価では、エンド・ツー・エンドのクラウド・ネットワークの実行に対して平均1.74時間(最大22.22時間)で、Minuetは以前のSCエンジンよりも大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2023-12-01T05:09:02Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Scaling Up Dataset Distillation to ImageNet-1K with Constant Memory [66.035487142452]
MTT(trajectory-matching-based method)は,ImageNet-1Kなどの大規模データセットに拡張可能であることを示す。
メモリフットプリントの6倍の削減を図り,MTTをImageNet-1Kにシームレスにスケールすることができる。
1つのGPU上で、ImageNet-1K上で50 IPC(Image Per Class)までスケールアップできる。
論文 参考訳(メタデータ) (2022-11-19T04:46:03Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - Ginex: SSD-enabled Billion-scale Graph Neural Network Training on a
Single Machine via Provably Optimal In-memory Caching [3.0479527348064197]
グラフニューラルネットワーク(GNN)は、構造化データ上の様々なグラフタスクを効果的に提供する強力なツールとして注目を浴びている。
実世界のグラフのサイズが拡大を続けるにつれ、GNNトレーニングシステムはスケーラビリティの課題に直面している。
我々は,1台のマシン上で数十億のグラフデータセットを処理可能な,SSDベースの初のGNNトレーニングシステムであるGinexを提案する。
論文 参考訳(メタデータ) (2022-08-19T04:57:18Z) - Adaptive Elastic Training for Sparse Deep Learning on Heterogeneous
Multi-GPU Servers [65.60007071024629]
本稿では,Adaptive SGDが4つの最先端ソリューションよりも精度が高いことを示す。
本稿では,Adaptive SGDが時間と精度で4つの最先端ソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-10-13T20:58:15Z) - NanoBatch DPSGD: Exploring Differentially Private learning on ImageNet
with low batch sizes on the IPU [56.74644007407562]
ResNet-50におけるグループ正規化を用いたバッチサイズを小さくすることで,Graphcore IPUにおける高い精度とプライバシが得られることを示す。
これにより、イメージネット上のResNet-50上のDPSGDトレーニングを、IPU-POD16システム上でわずか6時間で行うことができる。
論文 参考訳(メタデータ) (2021-09-24T20:59:04Z) - Hogwild! over Distributed Local Data Sets with Linearly Increasing
Mini-Batch Sizes [26.9902939745173]
Hogwild!は非同期のGradient Descentを実装し、複数のスレッドが並列に、トレーニングデータを含む共通のリポジトリにアクセスする。
通信コストを削減するため,ローカルな計算ノードがより小さなミニバッチサイズを選択し始める方法を示す。
論文 参考訳(メタデータ) (2020-10-27T03:46:09Z) - Distinctive 3D local deep descriptors [2.512827436728378]
ポイントクラウドパッチは抽出され、推定されたローカル参照フレームに対して正準化され、PointNetベースのディープニューラルネットワークによって符号化される。
我々は、異なるセンサを用いて再構成された点雲からなる複数のデータセットにおいて、DIPを、別の手作り、ディープディスクリプタと比較し、比較した。
論文 参考訳(メタデータ) (2020-09-01T06:25:06Z) - Sliced Iterative Normalizing Flows [7.6146285961466]
我々は,任意の確率分布関数(PDF)を対象のPDFに変換することができる反復型(欲求型)ディープラーニング(DL)アルゴリズムを開発した。
本アルゴリズムの特殊な場合として,データから潜在空間(GIS)にマップする2つの反復正規化フロー(SINF)モデルを導入する。
論文 参考訳(メタデータ) (2020-07-01T18:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。