論文の概要: An efficient probabilistic hardware architecture for diffusion-like models
- arxiv url: http://arxiv.org/abs/2510.23972v1
- Date: Tue, 28 Oct 2025 01:09:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.700052
- Title: An efficient probabilistic hardware architecture for diffusion-like models
- Title(参考訳): 拡散様モデルのための効率的な確率的ハードウェアアーキテクチャ
- Authors: Andraž Jelinčič, Owen Lockwood, Akhil Garlapati, Guillaume Verdon, Trevor McCourt,
- Abstract要約: ハードウェアレベルで強力な復調モデルを実装した全トランジスタ確率コンピュータを提案する。
システムレベルの分析では、我々のアーキテクチャに基づくデバイスは、約1万分の1のエネルギーを使って、単純な画像ベンチマークでGPUと同等の性能を達成できることを示している。
- 参考スコア(独自算出の注目度): 0.0025094077902180403
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The proliferation of probabilistic AI has promoted proposals for specialized stochastic computers. Despite promising efficiency gains, these proposals have failed to gain traction because they rely on fundamentally limited modeling techniques and exotic, unscalable hardware. In this work, we address these shortcomings by proposing an all-transistor probabilistic computer that implements powerful denoising models at the hardware level. A system-level analysis indicates that devices based on our architecture could achieve performance parity with GPUs on a simple image benchmark using approximately 10,000 times less energy.
- Abstract(参考訳): 確率的AIの普及により、特殊確率コンピュータの提案が推進された。
有望な効率向上にもかかわらず、これらの提案は基本的に限られたモデリング技術とエキゾチックで拡張不能なハードウェアに依存しているため、牽引力を得られなかった。
本研究では,ハードウェアレベルで強力な復調モデルを実装する全トランジスタ確率コンピュータを提案することで,これらの欠点に対処する。
システムレベルの分析では、我々のアーキテクチャに基づくデバイスは、約1万分の1のエネルギーを使って、単純な画像ベンチマークでGPUと同等の性能を達成できることを示している。
関連論文リスト
- NeuroScalar: A Deep Learning Framework for Fast, Accurate, and In-the-Wild Cycle-Level Performance Prediction [18.863968099669364]
本稿では,生産ハードウェア上での高忠実なインザワイルドシミュレーションのための新しいディープラーニングフレームワークを提案する。
我々のコアコントリビューションは、仮説プロセッサ設計のためのサイクルレベルの性能を予測するために、マイクロアーキテクチャに依存しない機能に基づいて訓練されたDLモデルである。
このフレームワークは,大規模なハードウェアA/Bテストと正確な性能解析を可能にすることを実証する。
論文 参考訳(メタデータ) (2025-09-26T14:36:06Z) - Scaling Probabilistic Circuits via Monarch Matrices [109.65822339230853]
確率回路(PC)は確率分布の抽出可能な表現である。
そこで本研究では,PCの和ブロックに対する新しいスパースパラメータと構造化パラメータ化を提案する。
論文 参考訳(メタデータ) (2025-06-14T07:39:15Z) - ApproXAI: Energy-Efficient Hardware Acceleration of Explainable AI using Approximate Computing [0.0]
XAIedgeは、近似計算技術をXAIアルゴリズムに活用する新しいフレームワークである。
XAIedgeはこれらのアルゴリズムを近似行列計算に変換し、畳み込み、フーリエ変換、近似計算パラダイムの相乗効果を利用する。
総合評価の結果,既存のXAIハードウェアアクセラレーション技術と比較して,XAIedgeのエネルギー効率は2倍に向上した。
論文 参考訳(メタデータ) (2025-04-24T20:40:29Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Energy-frugal and Interpretable AI Hardware Design using Learning
Automata [5.514795777097036]
Tsetlin Machineと呼ばれる新しい機械学習アルゴリズムが提案されている。
本稿では,エネルギーフルーガルな人工知能ハードウェア設計手法について検討する。
本研究は, 資源配分が, 頑健かつ解釈可能な学習を達成しつつ, 決定的なエネルギー削減をもたらすことを示す。
論文 参考訳(メタデータ) (2023-05-19T15:11:18Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic
Circuits [99.59941892183454]
我々は,PC用の新しい実装設計であるEinsum Networks (EiNets)を提案する。
中心となるのは、E EiNets は単一のモノリシックな einsum-operation に多数の算術演算を組み合わせている。
本稿では,PCにおける予測最大化(EM)の実装を,自動微分を利用した簡易化が可能であることを示す。
論文 参考訳(メタデータ) (2020-04-13T23:09:15Z) - Near-Optimal Hardware Design for Convolutional Neural Networks [0.0]
本研究では,畳み込みニューラルネットワークのための新しい,特殊目的,高効率ハードウェアアーキテクチャを提案する。
提案アーキテクチャは,モデルの計算フローと同じ構造を持つ計算回路を設計することにより,乗算器の利用を最大化する。
提案するハードウェアアーキテクチャに基づく実装が,商用AI製品に適用されている。
論文 参考訳(メタデータ) (2020-02-06T09:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。