論文の概要: FedChip: Federated LLM for Artificial Intelligence Accelerator Chip Design
- arxiv url: http://arxiv.org/abs/2508.13162v1
- Date: Wed, 23 Jul 2025 15:38:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.5095
- Title: FedChip: Federated LLM for Artificial Intelligence Accelerator Chip Design
- Title(参考訳): FedChip: 人工知能加速器チップ設計のためのフェデレーションLLM
- Authors: Mahmoud Nazzal, Khoa Nguyen, Deepak Vungarala, Ramtin Zand, Shaahin Angizi, Hai Phan, Abdallah Khreishah,
- Abstract要約: FedChipは、大規模言語モデルのためのFederated fine-tuningアプローチである。
プロプライエタリなローカルデータに基づいてモデルをトレーニングすることが可能になる。
ハイエンドのLCMよりも77%以上品質が向上する。
- 参考スコア(独自算出の注目度): 4.3308734580455095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI hardware design is advancing rapidly, driven by the promise of design automation to make chip development faster, more efficient, and more accessible to a wide range of users. Amongst automation tools, Large Language Models (LLMs) offer a promising solution by automating and streamlining parts of the design process. However, their potential is hindered by data privacy concerns and the lack of domain-specific training. To address this, we introduce FedChip, a Federated fine-tuning approach that enables multiple Chip design parties to collaboratively enhance a shared LLM dedicated for automated hardware design generation while protecting proprietary data. FedChip enables parties to train the model on proprietary local data and improve the shared LLM's performance. To exemplify FedChip's deployment, we create and release APTPU-Gen, a dataset of 30k design variations spanning various performance metric values such as power, performance, and area (PPA). To encourage the LLM to generate designs that achieve a balance across multiple quality metrics, we propose a new design evaluation metric, Chip@k, which statistically evaluates the quality of generated designs against predefined acceptance criteria. Experimental results show that FedChip improves design quality by more than 77% over high-end LLMs while maintaining data privacy
- Abstract(参考訳): AIハードウェアデザインは急速に進歩しており、チップ開発をより速く、より効率的に、幅広いユーザーに対してよりアクセスしやすいものにするという、設計自動化の約束によって推進されている。
自動化ツールの中で、LLM(Large Language Models)は、設計プロセスの一部を自動化し、合理化することで、有望なソリューションを提供する。
しかし、データプライバシの懸念とドメイン固有のトレーニングの欠如によって、そのポテンシャルは妨げられている。
これを解決するために、FedChipを紹介します。フェデレートされた微調整アプローチにより、複数のチップデザイン関係者が、プロプライエタリなデータを保護しながら、自動ハードウェアデザイン生成専用の共有LLMを協調的に拡張することが可能になります。
FedChipは、パーティーが独自のローカルデータに基づいてモデルをトレーニングし、共有LLMのパフォーマンスを改善することを可能にする。
FedChipのデプロイメントを実証するために、パワー、パフォーマンス、エリア(PPA)など、さまざまなパフォーマンスメトリック値にまたがる30kデザインのデータセットであるAPTPU-Genを作成した。
LLMが複数の品質指標のバランスを保ち得る設計を作成することを奨励するために、我々は、予め定義された受理基準に対して生成された設計の品質を統計的に評価する新しい設計評価指標Chip@kを提案する。
実験結果から、FedChipはデータプライバシを維持しながら、ハイエンドLLMよりも77%以上設計品質を向上させることが判明した。
関連論文リスト
- MAHL: Multi-Agent LLM-Guided Hierarchical Chiplet Design with Adaptive Debugging [61.83256382177746]
大きな言語モデル(LLM)は2.5Dに拡張することを約束している。
LLMはフラットな設計、高い検証コスト、不正確なパラメータ最適化といった課題に直面している。
階層型LLMベースのチップレット設計生成フレームワークであるMAHLを提案する。
論文 参考訳(メタデータ) (2025-08-08T05:47:31Z) - Scaling Intelligence: Designing Data Centers for Next-Gen Language Models [0.13332839594069593]
GPT-4のような1.8兆のパラメータを持つ大規模言語モデル(LLM)は、データセンターアーキテクチャの根本的な再考を要求する。
我々の研究は、FLOPS、帯域幅と容量、複数のネットワークトポロジを共同で探求する包括的な協調設計フレームワークを提供する。
我々は、重なり合う計算と通信の利点を定量化し、ハードウェアアクセラレーションされた集合体を活用し、スケールアウト領域を広げ、メモリ容量を増大させる。
論文 参考訳(メタデータ) (2025-06-17T22:29:37Z) - Advancing AI-assisted Hardware Design with Hierarchical Decentralized Training and Personalized Inference-Time Optimization [3.29494205026308]
大規模言語モデル(LLM)は、AIによるハードウェア設計生成に大きな関心を呼んだ。
LLMによるハードウェア設計生成を阻害する3つの重要な課題を同定する。
本稿では、分散トレーニングとパーソナライズされた推論を探索し、AI支援ハードウェア設計のための2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-21T15:41:28Z) - Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - Towards Collaborative Intelligence: Routability Estimation based on
Decentralized Private Data [33.22449628584873]
本研究では,EDAにおける機械学習アプリケーションに対するフェデレートラーニングに基づくアプローチを提案する。
このアプローチでは、MLモデルを複数のクライアントのデータで協調的にトレーニングできるが、データのプライバシを尊重するためのデータへの明示的なアクセスは行わない。
包括的データセットの実験により、協調トレーニングは個々のローカルモデルと比較して精度を11%向上することが示された。
論文 参考訳(メタデータ) (2022-03-30T02:35:40Z) - Low-Precision Hardware Architectures Meet Recommendation Model Inference
at Scale [11.121380180647769]
本稿では,低精度ハードウェアに参照レコメンデーションモデルを適用するための検索戦略について紹介する。
また,ツールチェーンの設計と開発について論じ,モデルの精度を生涯にわたって維持する。
これらの教訓は,ハードウェアアーキテクチャとソフトウェアエンジニアリングの協調設計を促進するものだ,と私たちは信じています。
論文 参考訳(メタデータ) (2021-05-26T16:42:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。