論文の概要: DOSA: Differentiable Model-Based One-Loop Search for DNN Accelerators
- arxiv url: http://arxiv.org/abs/2509.10702v1
- Date: Fri, 12 Sep 2025 21:38:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.739973
- Title: DOSA: Differentiable Model-Based One-Loop Search for DNN Accelerators
- Title(参考訳): DOSA: DNN加速器のための微分可能なモデルベースワンループ探索
- Authors: Charles Hong, Qijing Huang, Grace Dinh, Mahesh Subedar, Yakun Sophia Shao,
- Abstract要約: また, DOSA は, サンプル数に応じて, それぞれ 2.80x と 12.59x のランダム探索および最適化に優れることを示した。
- 参考スコア(独自算出の注目度): 2.7194207513881525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the hardware design space exploration process, it is critical to optimize both hardware parameters and algorithm-to-hardware mappings. Previous work has largely approached this simultaneous optimization problem by separately exploring the hardware design space and the mapspace - both individually large and highly nonconvex spaces - independently. The resulting combinatorial explosion has created significant difficulties for optimizers. In this paper, we introduce DOSA, which consists of differentiable performance models and a gradient descent-based optimization technique to simultaneously explore both spaces and identify high-performing design points. Experimental results demonstrate that DOSA outperforms random search and Bayesian optimization by 2.80x and 12.59x, respectively, in improving DNN model energy-delay product, given a similar number of samples. We also demonstrate the modularity and flexibility of DOSA by augmenting our analytical model with a learned model, allowing us to optimize buffer sizes and mappings of a real DNN accelerator and attain a 1.82x improvement in energy-delay product.
- Abstract(参考訳): ハードウェア設計空間探索では,ハードウェアパラメータとアルゴリズムからハードウェアへのマッピングの両方を最適化することが重要である。
従来の研究は、ハードウェア設計空間とマップ空間を独立して探索することで、この同時最適化問題に大きくアプローチしてきた。
その結果、組合せ爆発はオプティマイザにとって重大な困難を生んだ。
本稿では,両空間を同時に探索し,高性能な設計点を特定するために,微分可能な性能モデルと勾配勾配に基づく最適化手法からなるDOSAを紹介する。
実験の結果、DOSAはサンプル数に類似したDNNモデルエネルギー遅延生成物の改善において、ランダム探索とベイズ最適化をそれぞれ2.80xと12.59xで上回った。
また,解析モデルを学習モデルで拡張することにより,実DNNアクセラレータのバッファサイズとマッピングを最適化し,エネルギー遅延を1.82倍改善することで,DOSAのモジュラリティと柔軟性を実証する。
関連論文リスト
- Make Optimization Once and for All with Fine-grained Guidance [78.14885351827232]
Learning to Optimize (L2O)は、統合ニューラルネットワークによる最適化効率を向上させる。
L2Oパラダイムは、例えば、リフィット、目に見えない解決策を反復的または直接的に生成するなど、大きな成果を達成する。
そこで本研究では,Diff-L2Oと呼ばれる学習最適化のための一般的なフレームワークについて検討した。
論文 参考訳(メタデータ) (2025-03-14T14:48:12Z) - AIRCHITECT v2: Learning the Hardware Accelerator Design Space through Unified Representations [3.6231171463908938]
設計空間探索は、カスタムハードウェアアーキテクチャの実現において重要な役割を果たす。
最近のAIrchitect v1は、DSEの限界を検索時間分類問題に対処する最初の試みである。
論文 参考訳(メタデータ) (2025-01-17T04:57:42Z) - Harnessing the Power of Gradient-Based Simulations for Multi-Objective Optimization in Particle Accelerators [5.565261874218803]
本稿では, 粒子加速器の深部微分可能強化学習アルゴリズムを用いてMOO問題の解法における微分可能性の効果を示す。
基礎となる問題は、個々の状態と行動の両方に厳密な制約を課し、ビームのエネルギー要求に対する累積的(グローバル)制約を課している。
論文 参考訳(メタデータ) (2024-11-07T15:55:05Z) - Diffusion Model for Data-Driven Black-Box Optimization [54.25693582870226]
我々は、強力な生成AI技術である拡散モデルに注目し、ブラックボックス最適化の可能性について検討する。
本研究では,1)実数値報酬関数のノイズ測定と,2)対比較に基づく人間の嗜好の2種類のラベルについて検討する。
提案手法は,設計最適化問題を条件付きサンプリング問題に再構成し,拡散モデルのパワーを有効活用する。
論文 参考訳(メタデータ) (2024-03-20T00:41:12Z) - Molecule Design by Latent Prompt Transformer [76.2112075557233]
本研究は、分子設計の課題を条件付き生成モデリングタスクとしてフレーミングすることによって検討する。
本研究では,(1)学習可能な事前分布を持つ潜伏ベクトル,(2)プロンプトとして潜伏ベクトルを用いる因果トランスフォーマーに基づく分子生成モデル,(3)潜在プロンプトを用いた分子の目標特性および/または制約値を予測する特性予測モデルからなる新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:33:23Z) - Compositional Generative Inverse Design [69.22782875567547]
入力変数を設計して目的関数を最適化する逆設計は重要な問題である。
拡散モデルにより得られた学習エネルギー関数を最適化することにより、そのような逆例を避けることができることを示す。
N-body 相互作用タスクと2次元多面体設計タスクにおいて,実験時に学習した拡散モデルを構成することにより,初期状態と境界形状を設計できることを示す。
論文 参考訳(メタデータ) (2024-01-24T01:33:39Z) - Sample-Efficient and Surrogate-Based Design Optimization of Underwater Vehicle Hulls [0.4543820534430522]
本稿では,BO-LCBアルゴリズムが最もサンプリング効率のよい最適化フレームワークであり,最適収束挙動を有することを示す。
また, DNN に基づく代理モデルでは, CFD シミュレーションと密に一致し, 平均絶対パーセンテージ誤差 (MAPE) が 1.85% であることを示す。
本稿では,サロゲートモデルを用いた設計最適化の2次高速化について述べる。
論文 参考訳(メタデータ) (2023-04-24T19:52:42Z) - DiGamma: Domain-aware Genetic Algorithm for HW-Mapping Co-optimization
for DNN Accelerators [4.248341310190857]
本稿では,HWとマッピングによって構築された膨大な設計空間を効率的に符号化するHW-Mapping共最適化フレームワークと,探索効率を向上させるための特殊な演算子を備えたドメイン認識型遺伝的アルゴリズムDiGammaを提案する。
評価の結果,DiGammaは,エッジおよびクラウド設定において,最高性能のベースライン最適化アルゴリズムと比較して,(ジオメアン)3.0xと10.0xの高速化を実現可能であることがわかった。
論文 参考訳(メタデータ) (2022-01-26T22:44:11Z) - Speeding up Computational Morphogenesis with Online Neural Synthetic
Gradients [51.42959998304931]
現代科学および工学の適用の広い範囲は制約として部分的な微分方程式(PDEs)のシステムとの最適化問題として定式化されます。
これらのPDE制約最適化問題は通常、標準のDisretize-then-optimizeアプローチで解決される。
オンラインニューラル合成勾配(ONSG)を用いたPDE制約最適化の高速化のための新しい2スケール最適化手法を提案する。
論文 参考訳(メタデータ) (2021-04-25T22:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。