論文の概要: Efficient Transformations in Deep Learning Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2506.16418v1
- Date: Thu, 19 Jun 2025 15:54:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.151122
- Title: Efficient Transformations in Deep Learning Convolutional Neural Networks
- Title(参考訳): ディープラーニング畳み込みニューラルネットワークにおける効率的な変換
- Authors: Berk Yilmaz, Daniel Fidel Harvey, Prajit Dhuri,
- Abstract要約: 本研究では、画像分類のためのResNet50畳み込みニューラルネットワーク(CNN)モデルにおける信号処理変換の統合について検討する。
実験の結果、WHTを組み込むことでエネルギー消費量が大幅に削減され、精度が向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates the integration of signal processing transformations -- Fast Fourier Transform (FFT), Walsh-Hadamard Transform (WHT), and Discrete Cosine Transform (DCT) -- within the ResNet50 convolutional neural network (CNN) model for image classification. The primary objective is to assess the trade-offs between computational efficiency, energy consumption, and classification accuracy during training and inference. Using the CIFAR-100 dataset (100 classes, 60,000 images), experiments demonstrated that incorporating WHT significantly reduced energy consumption while improving accuracy. Specifically, a baseline ResNet50 model achieved a testing accuracy of 66%, consuming an average of 25,606 kJ per model. In contrast, a modified ResNet50 incorporating WHT in the early convolutional layers achieved 74% accuracy, and an enhanced version with WHT applied to both early and late layers achieved 79% accuracy, with an average energy consumption of only 39 kJ per model. These results demonstrate the potential of WHT as a highly efficient and effective approach for energy-constrained CNN applications.
- Abstract(参考訳): 本研究では、画像分類のためのResNet50畳み込みニューラルネットワーク(CNN)モデルにおいて、信号処理変換 -- Fast Fourier Transform (FFT), Walsh-Hadamard Transform (WHT), Discrete Cosine Transform (DCT) -- の統合について検討する。
主な目的は、計算効率、エネルギー消費、およびトレーニングおよび推論中の分類精度のトレードオフを評価することである。
CIFAR-100データセット(100クラス、6万の画像)を用いて、WHTを組み込むことでエネルギー消費量を大幅に削減し、精度を向上することを示した。
具体的には、ベースラインのResNet50モデルは、テスト精度が66%に達し、1モデルあたり平均25,606 kJを消費した。
対照的に、初期の畳み込み層にWHTを組み込んだResNet50は74%の精度を達成し、初期の層と後期層にWHTを適用した改良版は79%の精度を達成し、平均エネルギー消費量は1モデルあたり39kJに留まった。
これらの結果から,エネルギー制約型CNNアプリケーションにおけるWHTの有効性が示唆された。
関連論文リスト
- Towards High-performance Spiking Transformers from ANN to SNN Conversion [43.53538629484375]
スパイクニューラルネットワーク(SNN)は、そのエネルギー効率、高速処理能力、ロバスト性によって大きな可能性を秘めている。
現在の変換方法は、主に畳み込みニューラルネットワーク(CNN)をSNNに変換することに焦点を当てている。
本稿では,変換の精度を維持するための期待補償モジュールを提案する。
論文 参考訳(メタデータ) (2025-02-28T16:12:37Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Fusing Pretrained ViTs with TCNet for Enhanced EEG Regression [0.07999703756441758]
本稿では、脳波回帰の精度を高めるために、事前訓練された視覚変換器(ViT)と時間畳み込みネットワーク(TCNet)の統合について詳述する。
以上の結果から, 回転平均角誤差(RMSE)を55.4から51.8に低減した。
性能を犠牲にすることなく、このモデルの速度を桁違いに向上させる(最大4.32倍高速)。
論文 参考訳(メタデータ) (2024-04-02T17:01:51Z) - CoV-TI-Net: Transferred Initialization with Modified End Layer for
COVID-19 Diagnosis [5.546855806629448]
転送学習は比較的新しい学習手法であり、少ない計算で優れた性能を達成するために多くの分野で採用されている。
本研究では,MNISTデータセットにPyTorch事前学習モデル(VGG19_bnとWideResNet -101)を適用した。
提案したモデルはKaggleのノートブックで開発、検証され、計算時間を要さずに99.77%の精度に達した。
論文 参考訳(メタデータ) (2022-09-20T08:52:52Z) - A Time-to-first-spike Coding and Conversion Aware Training for
Energy-Efficient Deep Spiking Neural Network Processor Design [2.850312625505125]
本稿では,ハードウェア実装のオーバーヘッドを伴わずに,ANNからSNNへの変換損失を低減するための変換アウェアネストレーニング(CAT)を提案する。
また、スパイク時間情報を利用して、軽量な対数計算が可能なタイム・ツー・ファースト・スパイク・コーディングを提案する。
計算処理装置は、推論エネルギーが486.7uJ、503.6uJ、1426uJの91.7%、67.9%、57.4%というトップ1の精度を達成する。
論文 参考訳(メタデータ) (2022-08-09T01:46:46Z) - On the Tradeoff between Energy, Precision, and Accuracy in Federated
Quantized Neural Networks [68.52621234990728]
無線ネットワーク上でのフェデレーション学習(FL)は、精度、エネルギー効率、精度のバランスをとる必要がある。
本稿では,ローカルトレーニングとアップリンク伝送の両方において,有限レベルの精度でデータを表現できる量子化FLフレームワークを提案する。
我々のフレームワークは標準的なFLモデルと比較してエネルギー消費量を最大53%削減できる。
論文 参考訳(メタデータ) (2021-11-15T17:00:03Z) - Inception Convolution with Efficient Dilation Search [121.41030859447487]
拡散畳み込みは、効果的な受容場を制御し、オブジェクトの大規模な分散を処理するための標準的な畳み込みニューラルネットワークの重要な変異体である。
そこで我々は,異なる軸,チャネル,層間の独立な拡散を有する拡張畳み込みの新たな変異体,すなわち開始(拡張)畳み込みを提案する。
本稿では,データに複雑なインセプション・コンボリューションを適合させる実用的な手法を探索し,統計的最適化に基づく簡易かつ効果的な拡張探索アルゴリズム(EDO)を開発した。
論文 参考訳(メタデータ) (2020-12-25T14:58:35Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Compounding the Performance Improvements of Assembled Techniques in a
Convolutional Neural Network [6.938261599173859]
基本CNNモデルの精度とロバスト性を改善する方法について述べる。
提案したResNet-50は、トップ1の精度を76.3%から82.78%、mCEを76.0%から48.9%、mFRを57.7%から32.3%に改善した。
CVPR 2019でiFood Competition Fine-Grained Visual Recognitionで1位を獲得した。
論文 参考訳(メタデータ) (2020-01-17T12:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。