論文の概要: Neural Networks at a Fraction with Pruned Quaternions
- arxiv url: http://arxiv.org/abs/2308.06780v1
- Date: Sun, 13 Aug 2023 14:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 15:26:18.419471
- Title: Neural Networks at a Fraction with Pruned Quaternions
- Title(参考訳): プルーンド四元数を持つフラクションにおけるニューラルネットワーク
- Authors: Sahel Mohammad Iqbal and Subhankar Mishra
- Abstract要約: プルーニングは、不要な重量を取り除き、トレーニングと推論のリソース要求を減らす1つの手法である。
入力データが多次元であるMLタスクでは、複素数や四元数などの高次元データ埋め込みを用いることで、精度を維持しながらパラメータ数を削減することが示されている。
いくつかのアーキテクチャでは、非常に高い空間レベルにおいて、四元数モデルは実際のアーキテクチャよりも高い精度を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Contemporary state-of-the-art neural networks have increasingly large numbers
of parameters, which prevents their deployment on devices with limited
computational power. Pruning is one technique to remove unnecessary weights and
reduce resource requirements for training and inference. In addition, for ML
tasks where the input data is multi-dimensional, using higher-dimensional data
embeddings such as complex numbers or quaternions has been shown to reduce the
parameter count while maintaining accuracy. In this work, we conduct pruning on
real and quaternion-valued implementations of different architectures on
classification tasks. We find that for some architectures, at very high
sparsity levels, quaternion models provide higher accuracies than their real
counterparts. For example, at the task of image classification on CIFAR-10
using Conv-4, at $3\%$ of the number of parameters as the original model, the
pruned quaternion version outperforms the pruned real by more than $10\%$.
Experiments on various network architectures and datasets show that for
deployment in extremely resource-constrained environments, a sparse quaternion
network might be a better candidate than a real sparse model of similar
architecture.
- Abstract(参考訳): 現代の最先端のニューラルネットワークはますます多くのパラメータを持ち、計算能力の制限されたデバイスへのデプロイを妨げている。
プルーニングは、不要な重量を取り除き、トレーニングと推論のリソース要求を減らす1つの手法である。
また、入力データが多次元であるMLタスクに対しては、複素数や四元数などの高次元データ埋め込みを用いて、精度を保ちながらパラメータ数を削減することが示されている。
本研究では,分類タスクにおいて,異なるアーキテクチャの現実および四元価値実装をpruningする。
いくつかのアーキテクチャでは、非常に高い空間レベルにおいて、四元数モデルは実際のアーキテクチャよりも高い精度を提供する。
例えば、Conv-4を用いたCIFAR-10の画像分類のタスクでは、元のモデルとしてのパラメータの3.5%の値で、プルーンド四元数バージョンは、プルーンドリアルを10.%以上上回っている。
さまざまなネットワークアーキテクチャとデータセットの実験により、極めてリソースが制約された環境でのデプロイメントにおいて、スパース四元ネットワークは、類似アーキテクチャの真のスパースモデルよりも適している可能性が示されている。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Low-Resource Crop Classification from Multi-Spectral Time Series Using Lossless Compressors [6.379065975644869]
深層学習は多スペクトル時間データを用いた作物分類の精度を大幅に向上させた。
ラベル付きサンプルが少ない低リソース環境では、深層学習モデルは不十分なデータのために性能が悪い。
本稿では,これらの状況に対処するために,ディープラーニングモデルに代わる非学習的代替案を提案する。
論文 参考訳(メタデータ) (2024-05-28T12:28:12Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Compact Multi-level Sparse Neural Networks with Input Independent
Dynamic Rerouting [33.35713740886292]
疎いディープニューラルネットワークは、モデルの複雑さとメモリ消費を大幅に減らすことができる。
現実の課題に直面する中で,複数のスパースレベルをサポートするスパースモデルをトレーニングすることを提案する。
このようにして、推論中に適切なスパーシティレベルを動的に選択でき、ストレージコストを最小のスパースサブモデルで抑えることができる。
論文 参考訳(メタデータ) (2021-12-21T01:35:51Z) - Efficient deep learning models for land cover image classification [0.29748898344267777]
土地利用土地被覆(LULC)画像分類のためのBigEarthNetデータセットを用いて実験を行った。
コンボリューションニューラルネットワーク、マルチ層パーセプトロン、ビジュアルトランスフォーマー、効率的なネットワーク、ワイド残留ネットワーク(WRN)など、さまざまな最先端モデルをベンチマークする。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
論文 参考訳(メタデータ) (2021-11-18T00:03:14Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Depthwise Multiception Convolution for Reducing Network Parameters
without Sacrificing Accuracy [2.0088802641040604]
マルチセプション・コンボリューションはレイヤワイドなマルチスケールカーネルを導入し、各入力チャネルの表現を同時に学習する。
標準畳み込みベースのモデルのパラメータの数を平均で32.48%削減し、精度を保っている。
論文 参考訳(メタデータ) (2020-11-07T05:33:54Z) - Generative Multi-Stream Architecture For American Sign Language
Recognition [15.717424753251674]
複雑なアプリケーションのための機能豊かさの低いデータセットのトレーニングは、人間のパフォーマンスよりも最適な収束を制限します。
本稿では,非現実性を危険にさらすことなく機能収束を改善することを目的とした,新たなハードウェアの必要性を排除した生成型マルチストリームアーキテクチャを提案する。
提案手法は,従来のモデルよりも0.45%,5.53%の精度で,トレーニングから1.42%の精度で95.62%の精度を達成している。
論文 参考訳(メタデータ) (2020-03-09T21:04:51Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。