論文の概要: Preprocessing Methods for Memristive Reservoir Computing for Image Recognition
- arxiv url: http://arxiv.org/abs/2506.05588v2
- Date: Mon, 09 Jun 2025 07:55:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 14:13:04.157452
- Title: Preprocessing Methods for Memristive Reservoir Computing for Image Recognition
- Title(参考訳): 画像認識のための経験的貯留層計算のための前処理法
- Authors: Rishona Daniels, Duna Wattad, Ronny Ronen, David Saad, Shahar Kvatinsky,
- Abstract要約: Reservoir Computing (RC) は効率的なリカレントニューラルネットワークアーキテクチャとして注目されている。
メムリスタで実装する場合、RC系はその動的特性から恩恵を受け、貯水池建設に最適である。
本稿では, 経験的RCシステムにおける各種前処理手法を系統的に比較し, 精度とエネルギー消費に与える影響について検討する。
- 参考スコア(独自算出の注目度): 0.4194295877935868
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reservoir computing (RC) has attracted attention as an efficient recurrent neural network architecture due to its simplified training, requiring only its last perceptron readout layer to be trained. When implemented with memristors, RC systems benefit from their dynamic properties, which make them ideal for reservoir construction. However, achieving high performance in memristor-based RC remains challenging, as it critically depends on the input preprocessing method and reservoir size. Despite growing interest, a comprehensive evaluation that quantifies the impact of these factors is still lacking. This paper systematically compares various preprocessing methods for memristive RC systems, assessing their effects on accuracy and energy consumption. We also propose a parity-based preprocessing method that improves accuracy by 2-6% while requiring only a modest increase in device count compared to other methods. Our findings highlight the importance of informed preprocessing strategies to improve the efficiency and scalability of memristive RC systems.
- Abstract(参考訳): Reservoir Computing(RC)は、シンプルなトレーニングのため、効率的なリカレントニューラルネットワークアーキテクチャとして注目されており、最後のパーセプトロン読み出し層のみをトレーニングする必要がある。
メムリスタで実装する場合、RC系はその動的特性から恩恵を受け、貯水池建設に最適である。
しかし, 入力前処理法と貯水池サイズに大きく依存するため, メムリスタをベースとしたRCの高性能化は依然として困難である。
関心が高まっているにもかかわらず、これらの要因の影響を定量化する包括的な評価はいまだに不足している。
本稿では, 経験的RCシステムにおける各種前処理手法を系統的に比較し, 精度とエネルギー消費に与える影響について検討する。
また,パリティに基づく前処理手法を提案し,その精度を2-6%向上させるとともに,他の方法と比較してデバイス数の増加が緩やかである。
本研究は, 経験的RCシステムの効率性とスケーラビリティを向上させるための情報前処理戦略の重要性を強調した。
関連論文リスト
- R-Sparse: Rank-Aware Activation Sparsity for Efficient LLM Inference [77.47238561728459]
R-スパース(R-Sparse)は、高度なLCMにおいて高い疎度を達成できる訓練不要なアクティベーション・スパシティ・アプローチである。
10種類のタスクにわたるLlama-2/3およびMistralモデルの実験は、R-Sparseが50%のモデルレベルの間隔で同等のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-04-28T03:30:32Z) - Center-Sensitive Kernel Optimization for Efficient On-Device Incremental Learning [88.78080749909665]
現在のオンデバイストレーニング手法は、破滅的な忘れを考慮せずに、効率的なトレーニングにのみ焦点をあてている。
本稿では,単純だが効果的なエッジフレンドリーなインクリメンタル学習フレームワークを提案する。
本手法は,メモリの削減と近似計算により,平均精度38.08%の高速化を実現する。
論文 参考訳(メタデータ) (2024-06-13T05:49:29Z) - Analysis and Fully Memristor-based Reservoir Computing for Temporal Data Classification [0.6291443816903801]
Reservoir Computing (RC) は、特に信号処理に有効なニューロモルフィックなフレームワークを提供する。
RCハードウェアのキーコンポーネントは動的貯留状態を生成する能力である。
本研究は, 新たな時間的課題の管理において, メムリスタをベースとしたRCシステムの適応性を照らすものである。
論文 参考訳(メタデータ) (2024-03-04T08:22:29Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Dynamic Iterative Refinement for Efficient 3D Hand Pose Estimation [87.54604263202941]
本稿では,従来の推定値の修正に部分的レイヤを反復的に活用する,小さなディープニューラルネットワークを提案する。
学習したゲーティング基準を用いて、ウェイトシェアリングループから抜け出すかどうかを判断し、モデルにサンプルごとの適応を可能にする。
提案手法は,広く使用されているベンチマークの精度と効率の両面から,最先端の2D/3Dハンドポーズ推定手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-11T23:31:34Z) - Unsupervised learning of disentangled representations in deep restricted
kernel machines with orthogonality constraints [15.296955630621566]
Constr-DRKMは、非教師なしデータ表現の学習のためのディープカーネル手法である。
本研究では,不整合特徴学習における提案手法の有効性を定量的に評価する。
論文 参考訳(メタデータ) (2020-11-25T11:40:10Z) - Model-Size Reduction for Reservoir Computing by Concatenating Internal
States Through Time [2.6872737601772956]
Reservoir Computing(RC)は、データから複雑な時系列を非常に高速に学習できる機械学習アルゴリズムである。
エッジコンピューティングにRCを実装するためには,RCに必要な計算資源の削減が重要である。
本研究では, 貯水池の過去又は漂流状態を現時点の出力層に投入することにより, 貯水池の規模を小さくする手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T06:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。