論文の概要: Spintronics for image recognition: performance benchmarking via
ultrafast data-driven simulations
- arxiv url: http://arxiv.org/abs/2308.05810v3
- Date: Wed, 7 Feb 2024 10:37:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 20:11:20.047866
- Title: Spintronics for image recognition: performance benchmarking via
ultrafast data-driven simulations
- Title(参考訳): 画像認識のためのスピントロニクス:超高速データ駆動シミュレーションによる性能ベンチマーク
- Authors: Anatole Moureaux and Chlo\'e Chopin and Simon de Wergifosse and
Laurent Jacques and Flavio Abreu Araujo
- Abstract要約: 単一スピントロニクスナノ構造を用いたエコー状態ネットワーク(ESN)による画像分類の実証を行った。
我々は、STVO力学をシミュレートするために、データ駆動型Thiele方程式アプローチと呼ばれる超高速なデータ駆動シミュレーションフレームワークを用いる。
我々は、MNIST、EMNIST-letters、Fashion MNISTデータセットで分類課題を解決するために、この手法をうまく適用することで、ソリューションの汎用性を示す。
- 参考スコア(独自算出の注目度): 4.2412715094420665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a demonstration of image classification using an echo-state
network (ESN) relying on a single simulated spintronic nanostructure known as
the vortex-based spin-torque oscillator (STVO) delayed in time. We employ an
ultrafast data-driven simulation framework called the data-driven Thiele
equation approach (DD-TEA) to simulate the STVO dynamics. This allows us to
avoid the challenges associated with repeated experimental manipulation of such
a nanostructured system. We showcase the versatility of our solution by
successfully applying it to solve classification challenges with the MNIST,
EMNIST-letters and Fashion MNIST datasets. Through our simulations, we
determine that within an ESN with numerous learnable parameters the results
obtained using the STVO dynamics as an activation function are comparable to
the ones obtained with other conventional nonlinear activation functions like
the reLU and the sigmoid. While achieving state-of-the-art accuracy levels on
the MNIST dataset, our model's performance on EMNIST-letters and Fashion MNIST
is lower due to the relative simplicity of the system architecture and the
increased complexity of the tasks. We expect that the DD-TEA framework will
enable the exploration of deeper architectures, ultimately leading to improved
classification accuracy.
- Abstract(参考訳): 本稿では,Vortex-based spin-torque oscillator (STVO) と呼ばれる単一スピントロニクスナノ構造を用いたエコー状態ネットワーク(ESN)を用いた画像分類の実証を行った。
我々は,データ駆動型thiele方程式法(dd-tea)と呼ばれる超高速データ駆動シミュレーションフレームワークを用いてstvoダイナミクスをシミュレートする。
これにより、ナノ構造系の繰り返しの実験操作に伴う問題を回避することができる。
我々は、mnist, emnist-letters, fashion mnistデータセットを用いた分類課題の解決に成功して、ソリューションの汎用性を示す。
シミュレーションにより,多数の学習パラメータを持つesnにおいて,svoダイナミクスをアクティベーション関数として用いた結果が,reluやsgmoidのような従来の非線形アクティベーション関数と同等であることが判明した。
MNISTデータセットで最先端の精度を実現する一方で、システムアーキテクチャの比較的単純さとタスクの複雑さの増加により、EMNISTレターとファッションMNISTの性能は低下する。
DD-TEAフレームワークがより深いアーキテクチャの探索を可能にし、最終的に分類精度が向上することを期待しています。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - From Fourier to Neural ODEs: Flow Matching for Modeling Complex Systems [20.006163951844357]
ニューラル常微分方程式(NODE)を学習するためのシミュレーション不要なフレームワークを提案する。
フーリエ解析を用いて、ノイズの多い観測データから時間的および潜在的高次空間勾配を推定する。
我々の手法は、トレーニング時間、ダイナミクス予測、堅牢性の観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-05-19T13:15:23Z) - A Generative Self-Supervised Framework using Functional Connectivity in
fMRI Data [15.211387244155725]
機能的磁気共鳴イメージング(fMRI)データから抽出した機能的接続性(FC)ネットワークを訓練したディープニューラルネットワークが人気を博している。
グラフニューラルネットワーク(GNN)のFCへの適用に関する最近の研究は、FCの時間変化特性を活用することにより、モデル予測の精度と解釈可能性を大幅に向上させることができることを示唆している。
高品質なfMRIデータとそれに対応するラベルを取得するための高コストは、実環境において彼らのアプリケーションにハードルをもたらす。
本研究では,動的FC内の時間情報を効果的に活用するためのSSL生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T16:14:43Z) - Neuromorphic spintronics simulated using an unconventional data-driven
Thiele equation approach [0.0]
本研究では,スピントルクボルテックスナノオシレータ(STVO)の力学を,従来とは異なるモデルを用いて定量的に記述する。
我々のアプローチはSTVOベースのニューロモルフィックコンピューティングデバイスの設計を加速させることを約束している。
論文 参考訳(メタデータ) (2023-07-18T13:47:57Z) - Disentangling Structured Components: Towards Adaptive, Interpretable and
Scalable Time Series Forecasting [52.47493322446537]
本研究では,時空間パターンの各コンポーネントを個別にモデル化する適応的,解釈可能,スケーラブルな予測フレームワークを開発する。
SCNNは、空間時間パターンの潜在構造を算術的に特徴づける、MSSの事前定義された生成プロセスで動作する。
SCNNが3つの実世界のデータセットの最先端モデルよりも優れた性能を達成できることを示すため、大規模な実験が行われた。
論文 参考訳(メタデータ) (2023-05-22T13:39:44Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Coupled Oscillatory Recurrent Neural Network (coRNN): An accurate and
(gradient) stable architecture for learning long time dependencies [15.2292571922932]
本稿では,リカレントニューラルネットワークのための新しいアーキテクチャを提案する。
提案するRNNは, 2次常微分方程式系の時間分解に基づく。
実験の結果,提案したRNNは,様々なベンチマークによる最先端技術に匹敵する性能を示した。
論文 参考訳(メタデータ) (2020-10-02T12:35:04Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。