論文の概要: Memristor-Based Neural Network Accelerators for Space Applications: Enhancing Performance with Temporal Averaging and SIRENs
- arxiv url: http://arxiv.org/abs/2509.04506v1
- Date: Tue, 02 Sep 2025 14:30:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.344089
- Title: Memristor-Based Neural Network Accelerators for Space Applications: Enhancing Performance with Temporal Averaging and SIRENs
- Title(参考訳): 宇宙用メムリスタ型ニューラルネットワーク加速器:時間平均化とSIRENによる性能向上
- Authors: Zacharia A. Rudge, Dominik Dold, Moritz Fieback, Dario Izzo, Said Hamdioui,
- Abstract要約: 我々は,メムリスタをベースとしたNNが,小惑星の航法・制御や測地といったタスクにおいて,競争性能のレベルを達成できることをシミュレーションで示す。
この結果から,将来の技術とNNの改良により,memristorのメリットを完全に解き放つための性能ギャップがさらに埋められると確信している。
- 参考スコア(独自算出の注目度): 3.0896944005515716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memristors are an emerging technology that enables artificial intelligence (AI) accelerators with high energy efficiency and radiation robustness -- properties that are vital for the deployment of AI on-board spacecraft. However, space applications require reliable and precise computations, while memristive devices suffer from non-idealities, such as device variability, conductance drifts, and device faults. Thus, porting neural networks (NNs) to memristive devices often faces the challenge of severe performance degradation. In this work, we show in simulations that memristor-based NNs achieve competitive performance levels on on-board tasks, such as navigation \& control and geodesy of asteroids. Through bit-slicing, temporal averaging of NN layers, and periodic activation functions, we improve initial results from around $0.07$ to $0.01$ and $0.3$ to $0.007$ for both tasks using RRAM devices, coming close to state-of-the-art levels ($0.003-0.005$ and $0.003$, respectively). Our results demonstrate the potential of memristors for on-board space applications, and we are convinced that future technology and NN improvements will further close the performance gap to fully unlock the benefits of memristors.
- Abstract(参考訳): メムリスタ(Memristor)は、人工知能(AI)アクセラレーターを高エネルギー効率と放射線の堅牢性で実現するための新興技術である。
しかし、宇宙の応用には信頼性と正確な計算が必要であるが、経験的デバイスはデバイス可変性、コンダクタンスドリフト、デバイス故障などの非理想性に悩まされている。
したがって、ニューラルネットワーク(NN)を経験的デバイスに移植することは、しばしば深刻なパフォーマンス劣化の課題に直面している。
本研究では,メムリスタをベースとしたNNが,航法制御や小惑星の測地など,搭載タスク上での競争性能の向上をシミュレーションで示す。
NNレイヤのビットスライシング、時間平均化、周期的アクティベーション機能を通じて、RRAMデバイスを使用して両方のタスクに対して0.07$から0.01$に、0.3$から0.007$に初期結果を改善し、それぞれ最先端レベル(0.003-0.005$と0.003$)に近づきます。
この結果から,将来の技術とNNの改良により,memristorのメリットを完全に解き放つための性能ギャップがさらに埋められると確信している。
関連論文リスト
- Guidance and Control Neural Network Acceleration using Memristors [3.0184858893569353]
本稿では、宇宙アプリケーションにおけるメモリ内AIアクセラレーションのためのPhase-Change Memory(PCM)とResistive Random-Access Memory(RRAM)memristorの使用について検討する。
ノイズが正確性に与える影響は問題でありながら,経験的アクセラレーションによって専門家の行動が学べることが示されている。
論文 参考訳(メタデータ) (2025-09-02T14:33:00Z) - NeuroNAS: Enhancing Efficiency of Neuromorphic In-Memory Computing for Intelligent Mobile Agents through Hardware-Aware Spiking Neural Architecture Search [6.006032394972252]
スパイキングニューラルネットワーク(SNN)は、イベントベースの計算を活用して、超低消費電力/エネルギー機械学習アルゴリズムを実現する。
NeuroNASは、インテリジェントな移動体エージェントのためのエネルギー効率の良いニューロモルフィックMCを開発するための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-30T09:51:58Z) - SNN4Agents: A Framework for Developing Energy-Efficient Embodied Spiking Neural Networks for Autonomous Agents [6.110543738208028]
スパイキングニューラルネットワーク(SNN)は、イベントベースのカメラやデータ変換前処理からのスパイクを使用して、スパース計算を効率的に行う。
本稿では,エネルギー効率の良いSNNを設計するための最適化手法からなるSNN4Agentsという新しいフレームワークを提案する。
我々のフレームワークは、68.75%のメモリ節約、3.58倍のスピードアップ、4.03倍のエネルギー効率で高い精度(84.12%の精度)を維持することができる。
論文 参考訳(メタデータ) (2024-04-14T19:06:00Z) - EdgeOL: Efficient in-situ Online Learning on Edge Devices [51.86178757050963]
予測精度、微調整実行時間、エネルギー効率を最適化するエッジオンライン学習フレームワークであるEdgeOLを提案する。
実験結果から、EdgeOLは、全体の微調整実行時間を64%削減し、エネルギー消費を52%削減し、オンラインの即時学習戦略よりも平均推定精度を1.75%向上させることがわかった。
論文 参考訳(メタデータ) (2024-01-30T02:41:05Z) - Compute-in-Memory based Neural Network Accelerators for Safety-Critical
Systems: Worst-Case Scenarios and Protections [8.813981342105151]
本稿では,CiM加速器の最悪の性能をデバイス変動の影響で特定する問題について検討する。
本稿では,対向訓練とノイズ注入訓練を効果的に組み合わせた,A-TRICEという新たな最悪の事例認識訓練手法を提案する。
実験の結果,A-TRICEは機器の変量下での最悪のケース精度を最大33%向上することがわかった。
論文 参考訳(メタデータ) (2023-12-11T05:56:00Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - Computing-In-Memory Neural Network Accelerators for Safety-Critical
Systems: Can Small Device Variations Be Disastrous? [15.760502065894778]
NVMデバイスは様々な非理想性、特に製造欠陥やデバイスの動作によるサイクル・ツー・サイクルの変動によるデバイス・ツー・デバイスの変化に悩まされている。
本稿では,高次元空間におけるデバイス変動の特定の組み合わせを効果的に見つける方法を提案する。
論文 参考訳(メタデータ) (2022-07-15T17:38:01Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。