論文の概要: GPU-accelerated simulated annealing based on p-bits with real-world device-variability modeling
- arxiv url: http://arxiv.org/abs/2601.14476v1
- Date: Tue, 20 Jan 2026 20:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.151
- Title: GPU-accelerated simulated annealing based on p-bits with real-world device-variability modeling
- Title(参考訳): 実世界のデバイス可変性モデリングを用いたpビットに基づくGPU加速型擬似焼鈍
- Authors: Naoya Onizawa, Takahiro Hanyu,
- Abstract要約: p-bits (p-bits) を用いた確率計算は、複雑な問題解決のためのCMOSロジックの効率的な代替手段である。
本稿では,pビットをベースとしたGPUアクセラレーション,オープンソースシミュレートフレームワークを提案する。
このフレームワークはスケーラブルでアクセスしやすいツールを提供することで、確率コンピューティングの研究を進めることを目指している。
- 参考スコア(独自算出の注目度): 1.2375561840897742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Probabilistic computing using probabilistic bits (p-bits) presents an efficient alternative to traditional CMOS logic for complex problem-solving, including simulated annealing and machine learning. Realizing p-bits with emerging devices such as magnetic tunnel junctions (MTJs) introduces device variability, which was expected to negatively impact computational performance. However, this study reveals an unexpected finding: device variability can not only degrade but also enhance algorithm performance, particularly by leveraging timing variability. This paper introduces a GPU-accelerated, open-source simulated annealing framework based on p-bits that models key device variability factors -timing, intensity, and offset- to reflect real-world device behavior. Through CUDA-based simulations, our approach achieves a two-order magnitude speedup over CPU implementations on the MAX-CUT benchmark with problem sizes ranging from 800 to 20,000 nodes. By providing a scalable and accessible tool, this framework aims to advance research in probabilistic computing, enabling optimization applications in diverse fields.
- Abstract(参考訳): 確率ビット(pビット)を用いた確率計算は、シミュレーションアニーリングや機械学習を含む複雑な問題解決のために従来のCMOSロジックに代わる効率的な代替手段を提供する。
MTJ(Magnetic Tunnel junctions)のような新しいデバイスによるpビットの実現は、計算性能に悪影響を及ぼすと予想されるデバイス可変性を導入している。
しかし,本研究では,デバイス変数が劣化するだけでなく,特にタイミング変数を活用することでアルゴリズム性能も向上する,という予期せぬ発見を明らかにした。
本稿では, p-bits をベースとした GPU アクセラレーション, オープンソースのシミュレーションアニールフレームワークを提案する。
CUDAをベースとしたシミュレーションにより, MAX-CUTベンチマークにおいて, 800ノードから20,000ノードまでのCPU実装の2次高速化を実現した。
このフレームワークは、スケーラブルでアクセスしやすいツールを提供することで、確率コンピューティングの研究を進め、様々な分野の最適化アプリケーションを可能にすることを目的としている。
関連論文リスト
- Comparing performance of variational quantum algorithm simulations on HPC systems [0.545520830707066]
変分量子アルゴリズムは、現在のノイズ中間量子(NISQ)デバイスに適用可能であるため、特に重要である。
これらのアルゴリズムの主構成ブロック(そのほか、ハミルトニアンとアンザッツの定義)は相対的に大きなパラメータ空間を定義する。
我々は、ハミルトニアンとアンザッツの両方の観点から、問題の一般的な記述を用いて、異なるシミュレータ間で一貫して問題定義を移植する。
論文 参考訳(メタデータ) (2025-07-23T15:46:54Z) - Scaling Probabilistic Circuits via Monarch Matrices [109.65822339230853]
確率回路(PC)は確率分布の抽出可能な表現である。
そこで本研究では,PCの和ブロックに対する新しいスパースパラメータと構造化パラメータ化を提案する。
論文 参考訳(メタデータ) (2025-06-14T07:39:15Z) - Benchmarking Energy and Latency in TinyML: A Novel Method for Resource-Constrained AI [0.0]
この研究は、エネルギーと遅延の測定を統合する代替のベンチマーク手法を導入する。
設定を評価するために、ニューラルネットワークを実行するためのNPUを含むSTM32N6 MCUをテストした。
その結果,コア電圧とクロック周波数の低減により,前処理と後処理の効率が向上することが示唆された。
論文 参考訳(メタデータ) (2025-05-21T15:12:14Z) - A Realistic Simulation Framework for Analog/Digital Neuromorphic Architectures [73.65190161312555]
ARCANAは、混合信号ニューロモルフィック回路の特性を考慮に入れたソフトウェアスパイクニューラルネットワークシミュレータである。
得られた結果が,ソフトウェアでトレーニングされたスパイクニューラルネットワークの動作を,かつてハードウェアにデプロイされた場合の信頼性の高い推定方法を示す。
論文 参考訳(メタデータ) (2024-09-23T11:16:46Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Modular Simulation Framework for Process Variation Analysis of
MRAM-based Deep Belief Networks [2.0222827433041535]
Magnetic Random-Access Memory (MRAM)ベースのpビットニューロモルフィックコンピューティングデバイスは、Boltzmann Machines (RBMs) における機械学習操作をコンパクトかつ効率的に実現する手段として、関心が高まりつつある。
活性化の制限は、MRAM装置のエネルギー障壁に依存し、シグモイド関数の電圧依存性挙動に対するプロセス変動の影響を評価することが不可欠である。
ここでは、トランスポート可能なPythonスクリプトを開発し、機械学習アプリケーションの正確性に基づいてデバイス次元の変化の下で出力の変動を分析する。
論文 参考訳(メタデータ) (2020-02-03T17:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。