論文の概要: GTAC: A Generative Transformer for Approximate Circuits
- arxiv url: http://arxiv.org/abs/2601.19906v1
- Date: Mon, 08 Dec 2025 18:45:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.130402
- Title: GTAC: A Generative Transformer for Approximate Circuits
- Title(参考訳): GTAC: 近似回路のための生成変換器
- Authors: Jingxin Wang, Shitong Guo, Ruicheng Dai, Wenhui Liang, Ruogu Ding, Xin Ning, Weikang Qian,
- Abstract要約: 近似回路を生成するための新しい生成トランスフォーマーモデルであるGTACを紹介する。
最先端の手法と比較すると、GTACはエラーレート制約下での面積を6.4%削減し、4.3倍高速である。
- 参考スコア(独自算出の注目度): 6.588602226978544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Targeting error-tolerant applications, approximate circuits introduce controlled errors to significantly improve performance, power, and area (PPA) of circuits. In this work, we introduce GTAC, a novel generative Transformer-based model for producing approximate circuits. By leveraging principles of approximate computing and AI-driven EDA, our model innovatively integrates error thresholds into the design process. Experimental results show that compared with a state-of-the-art method, GTAC further reduces 6.4% area under the error rate constraint, while being 4.3x faster.
- Abstract(参考訳): 回路の性能, 電力, 面積(PPA)を大幅に向上させるために, 制御誤差を導入した。
本稿では、近似回路を生成するための新しい生成トランスフォーマーモデルであるGTACを紹介する。
近似コンピューティングとAI駆動型EDAの原理を活用することで、我々のモデルは、設計プロセスにエラー閾値を革新的に統合する。
実験の結果、GTACは最先端の手法と比較して、エラーレートの制約下ではさらに6.4%削減し、4.3倍高速であることがわかった。
関連論文リスト
- Stiff Circuit System Modeling via Transformer [0.7816640928428988]
そこで我々は,現在最先端のトランスフォーマーモデルであるCrossformerを用いて時系列予測タスクを提案する。
クロスフォーマーの時間的表現能力と機能抽出の強化を利用して,幅広い入力条件に対する回路応答の予測精度の向上を実現する。
論文 参考訳(メタデータ) (2025-10-06T01:13:45Z) - Supervised Learning for Analog and RF Circuit Design: Benchmarks and Comparative Insights [10.354863964933019]
本研究では,様々な回路タイプにわたる性能仕様から回路パラメータを設計するための教師付きMLに基づくアプローチについて検討する。
その結果,低雑音増幅器などの単純な回路は,平均相対誤差を0.3%以下と極めて精度が高いことがわかった。
異種回路では、トレーニングデータの増加により誤差の88%が減少し、受信側は平均相対誤差を0.23%以下とした。
論文 参考訳(メタデータ) (2025-01-21T02:48:23Z) - Shavette: Low Power Neural Network Acceleration via Algorithm-level Error Detection and Undervolting [0.0]
本稿では,Deep Neural Network(DNN)アクセラレータの,単なるソフトウェア修正による低電圧動作を実現するための簡単なアプローチを紹介する。
18%から25%の省エネ効果を示したが,精度の低下やスループットの低下は認められなかった。
論文 参考訳(メタデータ) (2024-10-17T10:29:15Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Adaptive Planning Search Algorithm for Analog Circuit Verification [53.97809573610992]
シミュレーションの少ない機械学習(ML)アプローチを提案する。
提案手法により,OCCを全回路の仕様に近づけることができることを示す。
論文 参考訳(メタデータ) (2023-06-23T12:57:46Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Data-Driven Chance Constrained AC-OPF using Hybrid Sparse Gaussian
Processes [57.70237375696411]
入力不確実性を伴う潮流方程式をモデル化するために,スパースプロセスとハイブリッドガウスプロセス(GP)フレームワークを用いた高速データ駆動構成を提案する。
提案手法の有効性は,複数のIEEEテストケースに対して,最大2倍の高速かつ高精度な解を示す数値的な研究によって主張する。
論文 参考訳(メタデータ) (2022-08-30T09:27:59Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。