論文の概要: Lorecast: Layout-Aware Performance and Power Forecasting from Natural Language
- arxiv url: http://arxiv.org/abs/2503.11662v2
- Date: Tue, 22 Apr 2025 19:01:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-24 20:25:50.785234
- Title: Lorecast: Layout-Aware Performance and Power Forecasting from Natural Language
- Title(参考訳): Lorecast: 自然言語によるレイアウトアウェアのパフォーマンスと電力予測
- Authors: Runzhi Wang, Prianka Sengupta, Cristhian Roman-Vicharra, Yiran Chen, Jiang Hu,
- Abstract要約: 我々はLorecastと呼ばれる新しい手法を導入し、英語のプロンプトを入力として受け取り、レイアウトを意識した性能と電力推定を迅速に生成する。
Lorecastは、分析後の数パーセントの誤差で精度を向上すると同時に、ターンアラウンド時間を大幅に短縮する。
- 参考スコア(独自算出の注目度): 5.431970630325635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In chip design planning, obtaining reliable performance and power forecasts for various design options is of critical importance. Traditionally, this involves using system-level models, which often lack accuracy, or trial synthesis, which is both labor-intensive and time-consuming. We introduce a new methodology, called Lorecast, which accepts English prompts as input to rapidly generate layout-aware performance and power estimates. This approach bypasses the need for HDL code development and synthesis, making it both fast and user-friendly. Experimental results demonstrate that Lorecast achieves accuracy within a few percent of error compared to post-layout analysis, while significantly reducing turnaround time.
- Abstract(参考訳): チップ設計計画においては、様々な設計オプションに対する信頼性の高い性能と電力予測を得ることが重要である。
伝統的に、これはしばしば正確性に欠けるシステムレベルのモデルや、労働集約的かつ時間を要する試行的な合成を使用する。
我々はLorecastと呼ばれる新しい手法を導入し、英語のプロンプトを入力として受け取り、レイアウトを意識した性能と電力推定を迅速に生成する。
このアプローチは、HDLコードの開発と合成の必要性を回避し、高速かつユーザフレンドリなものにします。
実験結果から,Lorecastはレイアウト後の解析に比べて誤差の数分以内で精度が向上し,ターンアラウンド時間も大幅に短縮された。
関連論文リスト
- Forecasting from Clinical Textual Time Series: Adaptations of the Encoder and Decoder Language Model Families [6.882042556551609]
本稿では, タイムスタンプによる臨床所見が予測の主入力となるテキスト時系列からの予測問題について紹介する。
我々は、細調整されたデコーダベースの大規模言語モデルやエンコーダベースのトランスフォーマーなど、多様なモデル群を評価する。
論文 参考訳(メタデータ) (2025-04-14T15:48:56Z) - Explainable Multi-modal Time Series Prediction with LLM-in-the-Loop [63.34626300024294]
TimeXLはプロトタイプベースの時系列エンコーダを統合するマルチモーダル予測フレームワークである。
より正確な予測と解釈可能な説明を生成する。
4つの実世界のデータセットに対する実証的な評価は、TimeXLがAUCで最大8.9%の改善を達成していることを示している。
論文 参考訳(メタデータ) (2025-03-02T20:40:53Z) - Machine Learning Framework for Early Power, Performance, and Area Estimation of RTL [0.0]
本稿では,ハードウェア記述言語(HDL)コードから直接,電力,性能,面積(PPA)メトリクスを早期に推定する合成前フレームワークを提案する。
提案したモデルはRTLと後合成設計を橋渡しし、重要な指標を正確に予測するのに役立つ。
論文 参考訳(メタデータ) (2025-02-22T12:12:51Z) - A Comparative Study of Pruning Methods in Transformer-based Time Series Forecasting [0.07916635054977067]
プルーニングは、ニューラルネットワークのパラメータ数を削減し、計算を保存するための確立されたアプローチである。
本研究では,これらのプルーニング戦略がモデルサイズ,演算,推論時間などの予測性能および計算面に与える影響について検討する。
ハードウェアとソフトウェアが対応する場合でも、構造化プルーニングは大幅な時間節約を達成できないことを実証する。
論文 参考訳(メタデータ) (2024-12-17T13:07:31Z) - Speculative Streaming: Fast LLM Inference without Auxiliary Models [21.454206732725563]
投機的ストリーミング(英: Speculative Streaming)は、単一モデル投機的復号法である。
これは、次のトークン予測から将来のn-gram予測に微調整対象を変更することで、ターゲットモデルにドラフトを融合させる。
1.8から3.1Xのデコーディングを、多様なタスクセットで高速化する。
論文 参考訳(メタデータ) (2024-02-16T23:36:43Z) - On-the-Fly Syntax Highlighting: Generalisation and Speed-ups [2.208443815105053]
オンザフライ構文強調は、視覚二次表記値を言語派生のそれぞれの文字と素早く関連付けるタスクである。
スピード制約はツールのユーザビリティを保証するために不可欠であり、オンラインソースコードにアクセスするエンドユーザの応答性を示す。
コードの理解力を高めるためには、正確なハイライトを達成することが重要です。
このようなリゾルバの開発コストに対処することは、多くのプログラミング言語のバージョンを考えると必須である。
論文 参考訳(メタデータ) (2024-02-13T19:43:22Z) - Compress, Then Prompt: Improving Accuracy-Efficiency Trade-off of LLM
Inference with Transferable Prompt [96.24800696597707]
圧縮モデルにより,このトレードオフを最適化する新たな視点を導入する。
本稿では,圧縮されたモデルを学習プロセスに公開するソフトプロンプト学習法を提案する。
我々のソフトプロンプト戦略は8x圧縮LLaMA-7Bモデルの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-05-17T20:45:13Z) - Decoder Tuning: Efficient Language Understanding as Decoding [84.68266271483022]
本稿では,タスク固有のデコーダネットワークを出力側で最適化するデコーダチューニング(DecT)を提案する。
勾配ベースの最適化により、DecTは数秒以内にトレーニングでき、サンプル毎に1つのPクエリしか必要としない。
我々は、広範囲にわたる自然言語理解実験を行い、DecTが200ドル以上のスピードアップで最先端のアルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-12-16T11:15:39Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - High-Level Synthesis Performance Prediction using GNNs: Benchmarking,
Modeling, and Advancing [21.8349113634555]
アジャイルハードウェア開発には、初期の設計段階から高速で正確な回路品質の評価が必要である。
本稿では,C/C++プログラムをグラフとして表現することで,グラフニューラルネットワーク(GNN)の表現力を生かした高速かつ正確な性能モデリングを提案する。
提案する予測器はHLSを最大40倍に上回り,既存の予測器を2倍から5倍に上回っている。
論文 参考訳(メタデータ) (2022-01-18T09:53:48Z) - CCVS: Context-aware Controllable Video Synthesis [95.22008742695772]
プレゼンテーションでは、古いビデオクリップから新しいビデオクリップを合成するための自己教師付き学習アプローチを紹介している。
時間的連続性のための文脈情報と微妙な制御のための補助情報に基づいて合成過程を規定する。
論文 参考訳(メタデータ) (2021-07-16T17:57:44Z) - Multi-timescale Representation Learning in LSTM Language Models [69.98840820213937]
言語モデルは、非常に短いから非常に長いまでの時間スケールで単語間の統計的依存関係を捉えなければならない。
我々は、長期記憶言語モデルにおけるメモリゲーティング機構が、パワーローの減衰を捉えることができるかの理論を導出した。
実験の結果,自然言語で学習したLSTM言語モデルは,この理論分布を近似することがわかった。
論文 参考訳(メタデータ) (2020-09-27T02:13:38Z) - An Image Enhancing Pattern-based Sparsity for Real-time Inference on
Mobile Devices [58.62801151916888]
パターンと接続性を組み合わせた新しい空間空間,すなわちパターンベースの空間空間を導入し,高度に正確かつハードウェアに親しみやすいものにした。
新たなパターンベースの空間性に対する我々のアプローチは,モバイルプラットフォーム上での高効率DNN実行のためのコンパイラ最適化に自然に適合する。
論文 参考訳(メタデータ) (2020-01-20T16:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。