論文の概要: AxOMaP: Designing FPGA-based Approximate Arithmetic Operators using
Mathematical Programming
- arxiv url: http://arxiv.org/abs/2309.13445v1
- Date: Sat, 23 Sep 2023 18:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 19:43:07.450458
- Title: AxOMaP: Designing FPGA-based Approximate Arithmetic Operators using
Mathematical Programming
- Title(参考訳): AxOMaP:数学的プログラミングを用いたFPGAに基づく近似演算子の設計
- Authors: Siva Satyendra Sahoo and Salim Ullah and Akash Kumar
- Abstract要約: FPGAの近似演算子を合成するための,データ解析による数学的プログラミングに基づく手法を提案する。
具体的には、特徴量データの相関解析の結果に基づいて、混合整数の2次制約付きプログラムを定式化する。
従来の進化的アルゴリズムによる最適化と比較して,PPAとBEHAVの併用最適化において,ハイパーボリュームの最大21%の改善が報告されている。
- 参考スコア(独自算出の注目度): 2.898055875927704
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the increasing application of machine learning (ML) algorithms in
embedded systems, there is a rising necessity to design low-cost computer
arithmetic for these resource-constrained systems. As a result, emerging models
of computation, such as approximate and stochastic computing, that leverage the
inherent error-resilience of such algorithms are being actively explored for
implementing ML inference on resource-constrained systems. Approximate
computing (AxC) aims to provide disproportionate gains in the power,
performance, and area (PPA) of an application by allowing some level of
reduction in its behavioral accuracy (BEHAV). Using approximate operators
(AxOs) for computer arithmetic forms one of the more prevalent methods of
implementing AxC. AxOs provide the additional scope for finer granularity of
optimization, compared to only precision scaling of computer arithmetic. To
this end, designing platform-specific and cost-efficient approximate operators
forms an important research goal. Recently, multiple works have reported using
AI/ML-based approaches for synthesizing novel FPGA-based AxOs. However, most of
such works limit usage of AI/ML to designing ML-based surrogate functions used
during iterative optimization processes. To this end, we propose a novel data
analysis-driven mathematical programming-based approach to synthesizing
approximate operators for FPGAs. Specifically, we formulate mixed integer
quadratically constrained programs based on the results of correlation analysis
of the characterization data and use the solutions to enable a more directed
search approach for evolutionary optimization algorithms. Compared to
traditional evolutionary algorithms-based optimization, we report up to 21%
improvement in the hypervolume, for joint optimization of PPA and BEHAV, in the
design of signed 8-bit multipliers.
- Abstract(参考訳): 組み込みシステムにおける機械学習(ml)アルゴリズムの適用が増えているため、これらのリソース制約のあるシステムに対して低コストなコンピュータ演算を設計する必要性が高まっている。
その結果、資源制約付きシステム上でML推論を実装するために、そのようなアルゴリズムの固有の誤り耐性を利用する近似計算や確率計算などの新しい計算モデルが活発に検討されている。
近似コンピューティング(AxC)は、動作精度(BEHAV)のある程度の低下を許容することにより、アプリケーションのパワー、パフォーマンス、領域(PPA)における不均等なゲインを提供することを目的としている。
コンピュータ演算に近似演算子(AxOs)を使用すると、AxCを実装する最も一般的な方法の1つとなる。
AxOsは、コンピュータ算術の精度スケーリングにのみ比較して、最適化の粒度の細かい追加のスコープを提供する。
この目的のために、プラットフォーム固有でコスト効率の良い近似演算子の設計が重要な研究目標となっている。
近年、新しいFPGAベースのAxOsの合成にAI/MLベースのアプローチを用いて、複数の研究が報告されている。
しかし、そのような作業のほとんどは、反復最適化プロセスで使用されるMLベースの代理関数の設計にAI/MLの使用を制限する。
そこで本研究では,fpgaの近似演算子を合成する新しいデータ解析駆動数理計画法を提案する。
具体的には,特徴付けデータの相関解析結果に基づいて,混合整数2次制約付きプログラムを定式化し,その解を用いて,進化的最適化アルゴリズムに対するより有向な探索手法を実現する。
従来の進化アルゴリズムに基づく最適化と比較して,ppaとbehavの共同最適化では,符号付き8ビット乗算器の設計において,ハイパーボリュームが最大21%改善されていることを報告した。
関連論文リスト
- Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - AxOCS: Scaling FPGA-based Approximate Operators using Configuration
Supersampling [2.578571429830403]
MLに基づくスーパーサンプリングにより近似演算子を設計する手法であるAxOCSを提案する。
ビット幅の異なる演算子間でのPPAとBEHAVの相関を利用して大きなビット幅演算子を生成する手法を提案する。
FPGAに最適化された近似演算子に対するAxOCSの実験評価により,提案手法は性能改善効果を示す。
論文 参考訳(メタデータ) (2023-09-22T12:36:40Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Algorithmic Foundations of Empirical X-risk Minimization [51.58884973792057]
この原稿は、機械学習とAIの新しい最適化フレームワーク、bf empirical X-risk baseline (EXM)を紹介している。
Xリスク(X-risk)は、構成測度または目的の族を表すために導入された用語である。
論文 参考訳(メタデータ) (2022-06-01T12:22:56Z) - Hyperparameter optimization of data-driven AI models on HPC systems [0.0]
この作業は、AIとHPCのクロスメソッドを活用するデータ駆動型ユースケースに関するRAISEの取り組みの一環だ。
高エネルギー物理におけるマシンラーニング粒子再構成の場合,ASHAアルゴリズムとベイジアン最適化を組み合わせることで,解析されたアルゴリズムから得られた計算資源あたりの性能が最大になることがわかった。
論文 参考訳(メタデータ) (2022-03-02T14:02:59Z) - Evolutionary Algorithms in Approximate Computing: A Survey [0.0]
本稿では、一般的な近似法の一つとして進化近似を扱う。
この論文は、近似計算の文脈で適用された進化近似(EA)に基づくアプローチに関する最初の調査を提供する。
論文 参考訳(メタデータ) (2021-08-16T10:17:26Z) - Dual Optimization for Kolmogorov Model Learning Using Enhanced Gradient
Descent [8.714458129632158]
コルモゴロフモデル(コルモゴロフモデル、英: Kolmogorov model、KM)は、確率変数の集合の基本的な確率構造を学ぶための解釈可能で予測可能な表現手法である。
正規化双対最適化と拡張勾配降下法(GD)を併用した計算スケーラブルなKM学習アルゴリズムを提案する。
提案したKM学習アルゴリズムを用いた論理的関係マイニングの精度は80%以上である。
論文 参考訳(メタデータ) (2021-07-11T10:33:02Z) - Parallel Scheduling Self-attention Mechanism: Generalization and
Optimization [0.76146285961466]
本稿では,SAT(Satisfiability check)ソルバによって解決された小インスタンスの最適スケジューリングから導いた一般スケジューリングアルゴリズムを提案する。
余剰計算をスキップする際のさらなる最適化戦略も推進され、元の計算の約25%と50%の削減が達成される。
提案アルゴリズムは、入力ベクトルの数がアーキテクチャで利用可能な演算ユニットの数に割り切れる限り、問題のサイズにかかわらず適用可能である。
論文 参考訳(メタデータ) (2020-12-02T12:04:16Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。