論文の概要: XBTorch: A Unified Framework for Modeling and Co-Design of Crossbar-Based Deep Learning Accelerators
- arxiv url: http://arxiv.org/abs/2601.07086v1
- Date: Sun, 11 Jan 2026 22:35:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.157085
- Title: XBTorch: A Unified Framework for Modeling and Co-Design of Crossbar-Based Deep Learning Accelerators
- Title(参考訳): XBTorch: クロスバーベースディープラーニングアクセラレータのモデリングと共同設計のための統一フレームワーク
- Authors: Osama Yousuf, Andreu L. Glasmann, Martin Lueker-Boden, Sina Najmaei, Gina C. Adam,
- Abstract要約: 本稿では,PyTorchとシームレスに統合された新しいシミュレーションフレームワークであるXBTorchを紹介する。
XBTorchは、新しいメモリ技術に基づいたクロスバーベースのシステムを正確かつ効率的にモデリングするための特殊なツールを提供する。
- 参考スコア(独自算出の注目度): 0.5834731599084116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emerging memory technologies have gained significant attention as a promising pathway to overcome the limitations of conventional computing architectures in deep learning applications. By enabling computation directly within memory, these technologies - built on nanoscale devices with tunable and nonvolatile conductance - offer the potential to drastically reduce energy consumption and latency compared to traditional von Neumann systems. This paper introduces XBTorch (short for CrossBarTorch), a novel simulation framework that integrates seamlessly with PyTorch and provides specialized tools for accurately and efficiently modeling crossbar-based systems based on emerging memory technologies. Through detailed comparisons and case studies involving hardware-aware training and inference, we demonstrate how XBTorch offers a unified interface for key research areas such as device-level modeling, cross-layer co-design, and inference-time fault tolerance. While exemplar studies utilize ferroelectric field-effect transistor (FeFET) models, the framework remains technology-agnostic - supporting other emerging memories such as resistive RAM (ReRAM), as well as enabling user-defined custom device models. The code is publicly available at: https://github.com/ADAM-Lab-GW/xbtorch
- Abstract(参考訳): 新たなメモリ技術は、ディープラーニングアプリケーションにおける従来のコンピューティングアーキテクチャの限界を克服するための有望な経路として注目されている。
これらの技術は、メモリ内で直接計算を行うことで、調整可能で不揮発性伝導を持つナノスケールデバイス上に構築され、従来のフォン・ノイマンシステムと比較して、エネルギー消費と遅延を大幅に削減する可能性がある。
本稿では,PyTorchとシームレスに統合された新しいシミュレーションフレームワークであるXBTorch(CrossBarTorchの略)を紹介する。
ハードウェア・アウェア・トレーニングと推論に関する詳細な比較とケーススタディを通じて,XBTorchがデバイスレベルのモデリング,クロスレイヤ・コデザイン,推論時の耐障害性といった重要な研究領域に対して,統一的なインターフェースを提供する様子を実演する。
実証的研究では、強誘電体電界効果トランジスタ(FeFET)モデルが使用されているが、このフレームワークは技術に依存しないままであり、抵抗RAM(ReRAM)のような他の新興メモリをサポートし、ユーザ定義のカスタムデバイスモデルを可能にする。
コードは、https://github.com/ADAM-Lab-GW/xbtorchで公開されている。
関連論文リスト
- Boosted Trees on a Diet: Compact Models for Resource-Constrained Devices [1.2483467287071346]
本稿では、軽量機械学習モデルの必要性の高まりに対処するため、強化された決定木に対する圧縮スキームを提案する。
また,LightGBMモデルと比較して,圧縮比が4-16倍のモデルが同じ性能を示した。
この機能は、リモート監視、エッジ分析、分離された環境や電力制限のある環境でのリアルタイム意思決定など、幅広いIoTアプリケーションへの扉を開く。
論文 参考訳(メタデータ) (2025-10-30T14:47:57Z) - In-memory Training on Analog Devices with Limited Conductance States via Multi-tile Residual Learning [59.091567092071564]
インメモリトレーニングは通常、デジタルベースラインに合わせて少なくとも8ビットのコンダクタンス状態を必要とする。
ReRAMのような多くの有望な中間デバイスは、製造制約のため、約4ビットの解像度しか提供しない。
本稿では,残差を補うために複数のクロスバータイルを逐次学習する語彙学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-02T19:44:25Z) - Bruno: Backpropagation Running Undersampled for Novel device Optimization [37.69303106863453]
強誘電体非揮発性デバイス(RRAM)上に構築されたスパイキングニューロンとシナプスに基づくハードウェアのためのニューラルネットワークのトレーニングのためのボトムアップアプローチを提案する。
トレーニングアルゴリズムは、RRAMと強誘電体集積火炎ニューロンに基づく量子化されたシナプスからなるネットワークでデータセット上でテストされる。
論文 参考訳(メタデータ) (2025-05-23T12:06:43Z) - On Accelerating Edge AI: Optimizing Resource-Constrained Environments [1.7355861031903428]
リソース制約のあるエッジデプロイメントでは、厳格な計算、メモリ、エネルギー制限とハイパフォーマンスのバランスをとるAIソリューションが要求される。
本稿では,このような制約下でのディープラーニングモデルを加速するための主要な戦略について概観する。
論文 参考訳(メタデータ) (2025-01-25T01:37:03Z) - NNsight and NDIF: Democratizing Access to Open-Weight Foundation Model Internals [58.83169560132308]
NNsightとNDIFを導入し、非常に大きなニューラルネットワークによって学習された表現と計算の科学的研究を可能にする。
論文 参考訳(メタデータ) (2024-07-18T17:59:01Z) - Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - AnalogNAS: A Neural Network Design Framework for Accurate Inference with
Analog In-Memory Computing [7.596833322764203]
エッジでの推論は低レイテンシ、コンパクト、電力効率のモデルを必要とする。
アナログ/混合信号インメモリコンピューティングハードウェアアクセラレータは、フォン・ノイマンアーキテクチャのメモリ壁を簡単に超越することができる。
本稿では,アナログインメモリコンピューティング(IMC)推論アクセラレータをターゲットとした,DNN(Deep Neural Network)自動設計のためのフレームワークであるAnalogNASを提案する。
論文 参考訳(メタデータ) (2023-05-17T07:39:14Z) - Neural Network Compression Framework for fast model inference [59.65531492759006]
我々は、ニューラルネットワーク圧縮フレームワーク(NNCF)と呼ばれる、微調整によるニューラルネットワーク圧縮のための新しいフレームワークを提案する。
様々なネットワーク圧縮手法の最近の進歩を活用し、空間性、量子化、双項化などのいくつかの実装を行っている。
フレームワークは、トレーニングサンプル内に提供され、あるいは既存のトレーニングコードにシームレスに統合可能なスタンドアロンパッケージとして使用することができる。
論文 参考訳(メタデータ) (2020-02-20T11:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。