論文の概要: Configurable p-Neurons Using Modular p-Bits
- arxiv url: http://arxiv.org/abs/2601.18943v1
- Date: Mon, 26 Jan 2026 20:32:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.061299
- Title: Configurable p-Neurons Using Modular p-Bits
- Title(参考訳): モジュラ p-bits を用いた構成可能な p-Neurons
- Authors: Saleh Bunaiyan, Mohammad Alsharif, Abdelrahman S. Abdelrahman, Hesham ElSawy, Suraj S. Cheema, Suhaib A. Fahmy, Kerem Y. Camsari, Feras Al-Dirini,
- Abstract要約: 我々は、信号経路を入力データパスから切り離してpビットを再設計し、モジュラーpビットを発生させる。
広い操作範囲を示すスピントロニクス(CMOS + sMTJ)の設計を提案する。
FPGA上でのディジタルCMOSバージョンをチューニング可能なユニット共有で実装し、必要なハードウェアリソースの桁違い(10倍)の節約効果を示す。
- 参考スコア(独自算出の注目度): 3.7531225251442706
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Probabilistic bits (p-bits) have recently been employed in neural networks (NNs) as stochastic neurons with sigmoidal probabilistic activation functions. Nonetheless, there remain a wealth of other probabilistic activation functions that are yet to be explored. Here we re-engineer the p-bit by decoupling its stochastic signal path from its input data path, giving rise to a modular p-bit that enables the realization of probabilistic neurons (p-neurons) with a range of configurable probabilistic activation functions, including a probabilistic version of the widely used Logistic Sigmoid, Tanh and Rectified Linear Unit (ReLU) activation functions. We present spintronic (CMOS + sMTJ) designs that show wide and tunable probabilistic ranges of operation. Finally, we experimentally implement digital-CMOS versions on an FPGA, with stochastic unit sharing, and demonstrate an order of magnitude (10x) saving in required hardware resources compared to conventional digital p-bit implementations.
- Abstract(参考訳): 確率的ビット(pビット)は、最近、Sigmoidal probabilistic activation関数を持つ確率ニューロンとしてニューラルネットワーク(NN)に採用されている。
それでも、まだ探索されていない多くの確率的活性化関数が残っている。
ここでは、確率的信号経路を入力データパスから切り離してpビットを再設計し、広く使われているロジスティックシグモイド、Tanh and Rectified Linear Unit(ReLU)アクティベーション関数の確率バージョンを含む、様々な構成可能な確率的活性化関数を持つ確率的ニューロン(pニューロン)の実現を可能にするモジュラーpビットを生成する。
スピントロニクス(CMOS + sMTJ)の設計は広範かつ可変な操作範囲を示す。
最後に,FPGA 上のディジタルCMOSバージョンを確率的単位共有を用いて実験的に実装し,従来のデジタル p-bit 実装と比較してハードウェアリソースの大幅な削減(10倍)を実証した。
関連論文リスト
- Bayesian Reasoning Enabled by Spin-Orbit Torque Magnetic Tunnel Junctions [7.081096702778852]
本稿では,スピン軌道型トルクトンネル接合(SOT-MTJ)のベイジアンネットワーク推論への応用を実証した概念実証実験について述べる。
ネットワークのパラメータは、単純なポイント・バイ・ポイントのトレーニングアルゴリズムによって最適にアプローチすることもできる。
SOT-MTJをランダム数生成器およびサンプリング器として用いた簡易診断システムを開発した。
論文 参考訳(メタデータ) (2025-04-11T05:02:27Z) - CMOS + stochastic nanomagnets: heterogeneous computers for probabilistic
inference and learning [0.16365624921211983]
相補的金属酸化物半導体(CMOS)トランジスタを新規ナノ技術(X)で強化するムーアの法則はますます重要になっている。
重要な問題の1つのクラスは、確率的機械学習、最適化、量子シミュレーションで使用されるサンプリングベースのモンテカルロアルゴリズムである。
ここでは、磁気トンネル接合(sMTJ)に基づく確率ビット(pビット)とフィールドプログラマブルゲートアレイ(FPGA)を組み合わせて、エネルギー効率の良いCMOS + Xプロトタイプを作成する。
論文 参考訳(メタデータ) (2023-04-12T16:18:12Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Representation Theorem for Matrix Product States [1.7894377200944511]
本稿では, 行列積状態(MPS)の普遍的表現能力について, 関数と連続関数の観点から検討する。
任意のゲートに対して対応するMPS構造の構築方法を提供することにより、MPSが任意の機能を正確に実現できることを示した。
我々は,MPSとニューラルネットワークの関係について検討し,スケール不変なシグモダル関数を持つMPSが一層ニューラルネットワークと等価であることを示す。
論文 参考訳(メタデータ) (2021-03-15T11:06:54Z) - Probabilistic Generating Circuits [50.98473654244851]
効率的な表現のための確率的生成回路(PGC)を提案する。
PGCは、非常に異なる既存モデルを統一する理論的なフレームワークであるだけでなく、現実的なデータをモデル化する大きな可能性も示している。
我々はPCとDPPの単純な組み合わせによって簡単に仮定されない単純なPGCのクラスを示し、一連の密度推定ベンチマークで競合性能を得る。
論文 参考訳(メタデータ) (2021-02-19T07:06:53Z) - Probabilistic Numeric Convolutional Neural Networks [80.42120128330411]
画像や時系列などの連続的な入力信号は、不規則にサンプリングされたり、値が欠けていたりすることは、既存のディープラーニング手法では困難である。
ガウス過程(GP)として特徴を表す確率的畳み込みニューラルネットワークを提案する。
次に、畳み込み層を、このGP上で定義されたPDEの進化として定義し、次いで非線形性とする。
実験では,SuperPixel-MNISTデータセットの先行技術と医療時間2012データセットの競合性能から,提案手法の誤差を3倍に削減できることが示されている。
論文 参考訳(メタデータ) (2020-10-21T10:08:21Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。