論文の概要: Logically Synthesized, Hardware-Accelerated, Restricted Boltzmann
Machines for Combinatorial Optimization and Integer Factorization
- arxiv url: http://arxiv.org/abs/2007.13489v2
- Date: Wed, 14 Oct 2020 17:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 18:34:30.503815
- Title: Logically Synthesized, Hardware-Accelerated, Restricted Boltzmann
Machines for Combinatorial Optimization and Integer Factorization
- Title(参考訳): 組合せ最適化と整数分解のための論理的合成・ハードウェア高速化・制限ボルツマンマシン
- Authors: Saavan Patel, Philip Canoza, Sayeef Salahuddin
- Abstract要約: Restricted Boltzmann Machine (RBM) は、様々な困難なタスクを解くことができるニューラルネットワークである。
本稿では, RBMを組み合わさって, 大容量の問題をフルフォームで学習する必要性を回避する手法を提案する。
また, RBM のハードウェア化を図り, FPGA ベースのアクセラレータにアルゴリズムを効率的にマッピングできるようにする手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Restricted Boltzmann Machine (RBM) is a stochastic neural network capable
of solving a variety of difficult tasks such as NP-Hard combinatorial
optimization problems and integer factorization. The RBM architecture is also
very compact; requiring very few weights and biases. This, along with its
simple, parallelizable sampling algorithm for finding the ground state of such
problems, makes the RBM amenable to hardware acceleration. However, training of
the RBM on these problems can pose a significant challenge, as the training
algorithm tends to fail for large problem sizes and efficient mappings can be
hard to find. Here, we propose a method of combining RBMs together that avoids
the need to train large problems in their full form. We also propose methods
for making the RBM more hardware amenable, allowing the algorithm to be
efficiently mapped to an FPGA-based accelerator. Using this accelerator, we are
able to show hardware accelerated factorization of 16 bit numbers with high
accuracy with a speed improvement of 10000x and a power improvement of 32x.
- Abstract(参考訳): 制限ボルツマンマシン(Restricted Boltzmann Machine, RBM)は、NP-Hard組合せ最適化問題や整数分解など、様々な困難なタスクを解くことのできる確率的ニューラルネットワークである。
RBMアーキテクチャも非常にコンパクトで、重みやバイアスは極めて少ない。
これにより、そのような問題の基底状態を見つけるための単純で並列化可能なサンプリングアルゴリズムとともに、RBMはハードウェアアクセラレーションに対応できる。
しかしながら、これらの問題に対するRBMのトレーニングは、トレーニングアルゴリズムが大きな問題サイズで失敗する傾向にあり、効率的なマッピングを見つけるのが難しいため、大きな課題となる。
本稿では, RBMを組み合わさって, 大容量の問題をフルフォームで学習する必要性を回避する手法を提案する。
また, RBM のハードウェア化を図り, FPGA ベースのアクセラレータにアルゴリズムを効率的にマッピングできるようにする手法を提案する。
この加速器を用いることで、ハードウェアアクセラレーションによる16ビット数のファクタライゼーションを10000倍の速度向上と32倍の電力改善で高精度に行うことができる。
関連論文リスト
- Dynamic Range Reduction via Branch-and-Bound [1.533133219129073]
ハードウェアアクセラレーターを強化するための主要な戦略は、算術演算における精度の低下である。
本稿ではQUBO問題における精度向上のための完全原理分岐境界アルゴリズムを提案する。
実験は、実際の量子アニール上でのアルゴリズムの有効性を検証する。
論文 参考訳(メタデータ) (2024-09-17T03:07:56Z) - Fast, Scalable, Warm-Start Semidefinite Programming with Spectral
Bundling and Sketching [53.91395791840179]
我々は、大規模なSDPを解くための、証明可能な正確で高速でスケーラブルなアルゴリズムであるUnified Spectral Bundling with Sketching (USBS)を提案する。
USBSは、20億以上の決定変数を持つインスタンス上で、最先端のスケーラブルなSDP解決器よりも500倍のスピードアップを提供する。
論文 参考訳(メタデータ) (2023-12-19T02:27:22Z) - All-to-all reconfigurability with sparse and higher-order Ising machines [0.0]
オール・ツー・オールのネットワーク機能をエミュレートする多重アーキテクチャを導入する。
適応並列テンパリングアルゴリズムの実行は、競合するアルゴリズムと事前ファクターの利点を示す。
pビットIMのスケールされた磁気バージョンは、汎用最適化のための最先端技術よりも桁違いに改善される可能性がある。
論文 参考訳(メタデータ) (2023-11-21T20:27:02Z) - Biologically Plausible Learning on Neuromorphic Hardware Architectures [27.138481022472]
ニューロモルフィックコンピューティング(Neuromorphic Computing)は、アナログメモリの計算によってこの不均衡に直面している新興パラダイムである。
この研究は、異なる学習アルゴリズムがCompute-In-Memoryベースのハードウェアに与える影響を初めて比較し、その逆も行った。
論文 参考訳(メタデータ) (2022-12-29T15:10:59Z) - Efficient algorithms to solve atom reconfiguration problems. I. The
redistribution-reconfiguration (red-rec) algorithm [51.02512563152503]
我々は,損失の有無にかかわらず,Red-Recアルゴリズムの性能を数値的に定量化する。
所望の原子数の3/2パワーとして, 平均成功確率を半分に設定した格子上の原子のコンパクトな中心配置に必要なトラップ数を示す。
Red-recアルゴリズムは、リアルタイム制御システムに容易にデプロイできる効率的な実装を認めている。
論文 参考訳(メタデータ) (2022-12-07T19:00:01Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - Scaling Quantum Approximate Optimization on Near-term Hardware [49.94954584453379]
我々は、様々なレベルの接続性を持つハードウェアアーキテクチャのための最適化回路により、期待されるリソース要求のスケーリングを定量化する。
問題の大きさと問題グラフの次数で指数関数的に増大する。
これらの問題は、ハードウェア接続性の向上や、より少ない回路層で高い性能を達成するQAOAの変更によって緩和される可能性がある。
論文 参考訳(メタデータ) (2022-01-06T21:02:30Z) - OMPQ: Orthogonal Mixed Precision Quantization [64.59700856607017]
混合精度量子化は、ハードウェアの多重ビット幅演算を利用して、ネットワーク量子化の全ポテンシャルを解き放つ。
本稿では、整数プログラミングの損失と高い相関関係にあるネットワーク性の概念であるプロキシメトリックを最適化することを提案する。
このアプローチは、量子化精度にほとんど妥協することなく、検索時間と必要なデータ量を桁違いに削減する。
論文 参考訳(メタデータ) (2021-09-16T10:59:33Z) - HANT: Hardware-Aware Network Transformation [82.54824188745887]
ハードウェア・アウェア・ネットワーク・トランスフォーメーション(HANT)を提案する。
HANTは、ニューラルネットワーク検索のようなアプローチを使用して、非効率な操作をより効率的な代替手段に置き換える。
EfficientNetファミリの高速化に関する我々の結果は、ImageNetデータセットのトップ1の精度で最大3.6倍、0.4%の低下でHANTがそれらを加速できることを示している。
論文 参考訳(メタデータ) (2021-07-12T18:46:34Z) - The Programming of Deep Learning Accelerators as a Constraint
Satisfaction Problem [0.0]
行列乗算のような複雑な命令で演算子を効率的に実装する新しい手法を提案する。
スカラーデータフロー上の制約満足度問題として組込みを定式化することで、あらゆる可能な組込みソリューションが探索空間に含まれる。
baidu deepbench inference benchmark suiteによるvtaハードウェアアクセラレーターを用いた詳細な評価では、リファレンス実装と競合するコードを自動生成できることが示されている。
論文 参考訳(メタデータ) (2021-04-10T10:39:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。