論文の概要: Advancing AI-assisted Hardware Design with Hierarchical Decentralized Training and Personalized Inference-Time Optimization
- arxiv url: http://arxiv.org/abs/2506.00002v1
- Date: Mon, 21 Apr 2025 15:41:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.412771
- Title: Advancing AI-assisted Hardware Design with Hierarchical Decentralized Training and Personalized Inference-Time Optimization
- Title(参考訳): 階層型分散トレーニングとパーソナライズされた推論時間最適化によるAI支援ハードウェア設計の改善
- Authors: Hao Mark Chen, Zehuan Zhang, Wanru Zhao, Nicholas Lane, Hongxiang Fan,
- Abstract要約: 大規模言語モデル(LLM)は、AIによるハードウェア設計生成に大きな関心を呼んだ。
LLMによるハードウェア設計生成を阻害する3つの重要な課題を同定する。
本稿では、分散トレーニングとパーソナライズされた推論を探索し、AI支援ハードウェア設計のための2段階のフレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.29494205026308
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent years have witnessed a significant increase in the adoption of AI techniques to enhance electronic design automation. In particular, the emergence of Large Language Models (LLMs) has sparked significant interest in LLM-assisted hardware design generation, spanning applications from classical digital circuits to quantum computing. Despite substantial progress in this direction, the quality of LLM-generated hardware design still cannot meet the requirements for practical deployment. In this work, we identify three critical challenges hindering the development of LLM-assisted hardware design generation: 1) limited data availability, 2) varied data quality, 3) inadequate inference-time efficiency. To address these fundamental challenges, this paper introduces a two-stage framework for AI-assisted hardware design by exploring decentralized training and personalized inference. In the first stage, we propose to harness private domain design sources through a hierarchical decentralized training mechanism that addresses data-sharing constraints. To mitigate the impact of low-quality data, we identify optimization opportunities in hardware generation tasks, using user-defined metrics for model aggregation. The second stage focuses on client personalization to enhance both speed and quality. We introduce a new metric, Trueput, to analyze LLM-assisted hardware generation efficiency. To optimize Trueput, we implement personalized inference-time acceleration and customized sampling strategies. Evaluating both classical and quantum benchmarks, our experimental results demonstrate that the proposed two-stage framework can significantly improve the model capability for hardware design generation. As orthogonal enhancements to existing methods, our framework can achieve $33\% \sim 50\%$ semantic accuracy improvement and $2.3$ times speedup, depending on the difficulty of the generation tasks.
- Abstract(参考訳): 近年、電子設計の自動化を強化するためのAI技術の採用が顕著に増加している。
特に、LLM(Large Language Models)の出現は、古典的なデジタル回路から量子コンピューティングへの応用にまたがる、LLM支援ハードウェア設計生成に大きな関心を惹き付けている。
この方向に大きく進歩したにもかかわらず、LCMが生成するハードウェア設計の品質は、実際的な展開の要求を満たすことができない。
本研究は,LCMによるハードウェア設計生成を阻害する3つの重要な課題を同定する。
1)データ可用性の制限。
2)データ品質の変化。
3)推論時間の効率が不十分である。
これらの根本的な課題に対処するために、分散トレーニングとパーソナライズされた推論を探索することにより、AI支援ハードウェア設計のための2段階のフレームワークを提案する。
まず、データ共有制約に対処する階層的な分散トレーニング機構を用いて、プライベートドメイン設計ソースを活用することを提案する。
低品質データの影響を軽減するため、ユーザ定義メトリクスを用いて、ハードウェア生成タスクにおける最適化の機会を同定する。
第2ステージでは、スピードと品質の両方を強化するために、クライアントのパーソナライズに焦点を当てている。
我々はLSM支援ハードウェア生成効率を解析するための新しい計量であるTrueputを導入する。
Trueputを最適化するために、パーソナライズされた推論時間加速度とカスタマイズされたサンプリング戦略を実装した。
古典的, 量子的両方のベンチマークを評価した結果, 提案した2段階のフレームワークは, ハードウェア設計のためのモデル性能を大幅に向上させることができることが示された。
既存の手法の直交的な拡張として、我々のフレームワークは、生成タスクの難易度に応じて、セマンティック精度の改善と2.3ドルのスピードアップを3,3\% \sim 50\%で達成できる。
関連論文リスト
- Scaling Intelligence: Designing Data Centers for Next-Gen Language Models [0.13332839594069593]
大規模言語モデル(LLM)は、スケーラビリティ、効率性、コスト効率性を保証するために、データセンターアーキテクチャを根本的に再考する必要がある。
我々の研究は、FLOPS、帯域幅とキャパシティ、複数のネットワークトポロジ、一般的な並列化/最適化戦略を共同で探求する包括的な協調設計フレームワークを提供する。
私たちの発見は、実用的な洞察と、AIデータセンタを設計するための実践的なロードマップを提供します。
論文 参考訳(メタデータ) (2025-06-17T22:29:37Z) - A Text-Based Knowledge-Embedded Soft Sensing Modeling Approach for General Industrial Process Tasks Based on Large Language Model [16.842988666530204]
データ駆動型ソフトセンサー(DDSS)は、プロセス産業において重要なパフォーマンス指標を予測する主要な手法となっている。
開発には、モデリングプロセス中に様々なタスクに合わせてカスタマイズされた複雑でコストがかかる設計が必要である。
本稿では,LLM-TKESS(テキストベース知識埋め込み型ソフトセンシングのための大規模言語モデル)というフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-09T08:59:14Z) - SOLO: A Single Transformer for Scalable Vision-Language Modeling [74.05173379908703]
我々はvisiOn-Language mOdelingのための単一変換器SOLOを提案する。
SOLOのような統一された単一トランスフォーマーアーキテクチャは、LVLMにおけるこれらのスケーラビリティ上の懸念に効果的に対処する。
本稿では,オープンソースの7B LVLMであるSOLOの開発のための,最初のオープンソーストレーニングレシピを紹介する。
論文 参考訳(メタデータ) (2024-07-08T22:40:15Z) - Large Language Model Agent as a Mechanical Designer [7.136205674624813]
本研究では、FEMモジュールと協調して事前訓練された大規模言語モデル(LLM)を利用して、構造設計を自律的に生成、評価、洗練するフレームワークを提案する。
LLMはドメイン固有の微調整なしで動作し、設計候補を提案し、FEMから派生した性能指標を解釈し、構造的な音響修正を適用する。
NSGA-II (Non-Sorting Genetic Algorithm II) と比較して,本手法はより高速に収束し,より少ないFEM評価を実現する。
論文 参考訳(メタデータ) (2024-04-26T16:41:24Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Machine Learning Framework for Quantum Sampling of Highly-Constrained,
Continuous Optimization Problems [101.18253437732933]
本研究では,連続空間の逆設計問題を,制約のないバイナリ最適化問題にマッピングする,汎用的な機械学習ベースのフレームワークを開発する。
本研究では, 熱発光トポロジを熱光応用に最適化し, (ii) 高効率ビームステアリングのための拡散メタグレーティングを行うことにより, 2つの逆設計問題に対するフレームワークの性能を示す。
論文 参考訳(メタデータ) (2021-05-06T02:22:23Z) - Measuring what Really Matters: Optimizing Neural Networks for TinyML [7.455546102930911]
ニューラルネットワーク(NN)は、アーキテクチャと計算の複雑さが前例のない成長を遂げた。
NNをリソース制約のあるデバイスに導入することで、コスト効率の高いデプロイメント、広範な可用性、機密データの保存が可能になる。
この作業は、ユビキタスなARM Cortex-Mアーキテクチャに焦点を当てた、機械学習をMCUに持ち込むという課題に対処する。
論文 参考訳(メタデータ) (2021-04-21T17:14:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。