論文の概要: Enhancing High-Level Synthesis with Automated Pragma Insertion and Code Transformation Framework
- arxiv url: http://arxiv.org/abs/2405.03058v4
- Date: Mon, 14 Oct 2024 19:12:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 13:58:51.609693
- Title: Enhancing High-Level Synthesis with Automated Pragma Insertion and Code Transformation Framework
- Title(参考訳): 自動プラグマ挿入とコード変換フレームワークによる高レベル合成の強化
- Authors: Stéphane Pouget, Louis-Noël Pouchet, Jason Cong,
- Abstract要約: 高レベルの合成、ソース・ソース・コンパイラ、およびプラグマ挿入のための様々な設計空間探索技術により、生成された設計結果の品質が大幅に向上した。
これらのツールは、開発時間を短縮し、パフォーマンスを向上するといった利点を提供する。
しかしながら、高品質な結果を達成するには、通常、個別または前処理ステップとして実行される、追加の手動コード変換とタイリング選択が必要になることが多い。
- 参考スコア(独自算出の注目度): 5.669524030828314
- License:
- Abstract: High-level synthesis, source-to-source compilers, and various Design Space Exploration techniques for pragma insertion have significantly improved the Quality of Results of generated designs. These tools offer benefits such as reduced development time and enhanced performance. However, achieving high-quality results often requires additional manual code transformations and tiling selections, which are typically performed separately or as pre-processing steps. Although DSE techniques enable code transformation upfront, the vastness of the search space often limits the exploration of all possible code transformations, making it challenging to determine which transformations are necessary. Additionally, ensuring correctness remains challenging, especially for complex transformations and optimizations. To tackle this obstacle, we first propose a comprehensive framework leveraging HLS compilers. Our system streamlines code transformation, pragma insertion, and tiles size selection for on-chip data caching through a unified optimization problem, aiming to enhance parallelization, particularly beneficial for computation-bound kernels. Them employing a novel Non-Linear Programming (NLP) approach, we simultaneously ascertain transformations, pragmas, and tile sizes, focusing on regular loop-based kernels. Our evaluation demonstrates that our framework adeptly identifies the appropriate transformations, including scenarios where no transformation is necessary, and inserts pragmas to achieve a favorable Quality of Results.
- Abstract(参考訳): 高レベルの合成、ソース・ソース・コンパイラ、およびプラグマ挿入のための様々な設計空間探索技術により、生成された設計結果の品質が大幅に向上した。
これらのツールは、開発時間を短縮し、パフォーマンスを向上するといった利点を提供する。
しかしながら、高品質な結果を達成するには、通常、個別または前処理ステップとして実行される、追加の手動コード変換とタイリング選択が必要になることが多い。
DSE技術は前もってコード変換を可能にするが、検索空間の広大な部分で可能なすべてのコード変換の探索が制限されることが多く、どの変換が必要なのかを判断することは困難である。
さらに、特に複雑な変換や最適化において、正確性を保証することは依然として困難である。
この障害に対処するため,我々はまず,HLSコンパイラを活用した包括的なフレームワークを提案する。
本システムでは,並列化の強化,特に計算バウンドカーネルに有用な並列化の実現を目的として,オンチップデータキャッシングにおけるコード変換,プラグマ挿入,タイルサイズ選択を合理化している。
新たな非線形プログラミング(NLP)アプローチを採用し、正規ループベースのカーネルに焦点をあて、変換、プラグマ、タイルサイズを同時に確認する。
我々の評価は、変換が不要なシナリオを含む、我々のフレームワークが適切に適切な変換を識別し、良好な結果の質を達成するためにプラグマを挿入することを示しています。
関連論文リスト
- UIO-LLMs: Unbiased Incremental Optimization for Long-Context LLMs [111.12010207132204]
UIO-LLMsは、長いコンテキスト設定下でのメモリ拡張トランスフォーマーの漸進的な最適化手法である。
本稿では,TBPTTアルゴリズムを用いて学習過程を改良する。
UIO-LLMは、Llama2-7b-chatのコンテキストウィンドウを4Kから100Kトークンに、2%の追加パラメータで拡張するなど、長いコンテキストを扱うことに成功した。
論文 参考訳(メタデータ) (2024-06-26T08:44:36Z) - RTDK-BO: High Dimensional Bayesian Optimization with Reinforced
Transformer Deep kernels [39.53062980223013]
近年のDeep Kernel Learning(DKL)とアテンションベースのTransformerモデルを組み合わせることで,GPサロゲートのモデリング能力とメタラーニングを改善する。
本稿では,DKLに注意機構を組み込んだメタラーニングBOサロゲートの改良手法を提案する。
このトランスフォーマーディープカーネルと、継続的ソフトアクター・クリティカル強化学習で訓練された学習的獲得関数を組み合わせることで、探索を支援します。
論文 参考訳(メタデータ) (2023-10-05T21:37:20Z) - A Circuit Domain Generalization Framework for Efficient Logic Synthesis
in Chip Design [92.63517027087933]
論理合成(LS)の重要な課題は、回路を等価な機能を持つ単純化回路に変換することである。
この課題に対処するため、多くのLS演算子は、入力DAG上の各ノードに根付いたサブグラフに逐次変換を適用する。
本稿では,データ駆動型LS演算子のパラダイムであるPruneXを提案する。
論文 参考訳(メタデータ) (2023-08-22T16:18:48Z) - B-cos Alignment for Inherently Interpretable CNNs and Vision
Transformers [97.75725574963197]
本稿では,深層ニューラルネットワーク(DNN)の学習における重み付けの促進による解釈可能性の向上に向けた新たな方向性を提案する。
このような変換の列は、完全なモデル計算を忠実に要約する単一の線形変換を誘導することを示す。
得られた説明は視覚的品質が高く,定量的解釈可能性指標下では良好に機能することを示す。
論文 参考訳(メタデータ) (2023-06-19T12:54:28Z) - Evolutionary Solution Adaption for Multi-Objective Metal Cutting Process
Optimization [59.45414406974091]
我々は,従来の最適化タスクから解を転送するアルゴリズムの能力を研究することのできる,システムの柔軟性のためのフレームワークを提案する。
NSGA-IIの柔軟性を2つの変種で検討し,1)2つのタスクの解を同時に最適化し,より適応性が高いと期待されるソース間の解を得る,2)活性化あるいは非活性化の異なる可能性に対応する能動的非アクティブなジェノタイプについて検討した。
その結果,標準NSGA-IIによる適応は目標目標への最適化に必要な評価回数を大幅に削減し,提案した変種は適応コストをさらに向上することがわかった。
論文 参考訳(メタデータ) (2023-05-31T12:07:50Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Execution-based Code Generation using Deep Reinforcement Learning [8.085533911328577]
PPOCoderは、事前訓練されたPLモデルとプロキシポリシー最適化を組み合わせた、コード生成のための新しいフレームワークである。
PPOCoderは、外部コード固有の知識をモデル最適化プロセスにシームレスに統合する。
PPOCoderはタスクに依存しない、モデルに依存しないフレームワークで、さまざまなコード生成タスクやPLで使用できます。
論文 参考訳(メタデータ) (2023-01-31T18:02:26Z) - Quantum-Inspired Optimization over Permutation Groups [0.2294014185517203]
量子インスパイアされた最適化 (QIO) アルゴリズムは、量子力学的効果を古典的なハードウェアにエミュレートする計算手法である。
我々は、任意の最適化問題を解決するためにQIOツールをカスタマイズするアルゴリズムフレームワークPerm-QIOを開発した。
論文 参考訳(メタデータ) (2022-12-06T00:02:39Z) - Progress Report: A Deep Learning Guided Exploration of Affine Unimodular
Loop Transformations [1.5699353548228476]
本稿では,多面体コンパイラにおけるコードの自動最適化のための深層学習に基づくアプローチについて検討する。
提案手法は,アフィンループ変換と非アフィンループ変換の組み合わせを探索し,与えられたプログラムの実行時間を最小化する変換列を求める。
予備的な結果から,提案手法は芸術多面体コンパイラの状態よりも2.35倍の幾何平均高速化を実現することが示された。
論文 参考訳(メタデータ) (2022-06-08T05:47:42Z) - Machine Learning Framework for Quantum Sampling of Highly-Constrained,
Continuous Optimization Problems [101.18253437732933]
本研究では,連続空間の逆設計問題を,制約のないバイナリ最適化問題にマッピングする,汎用的な機械学習ベースのフレームワークを開発する。
本研究では, 熱発光トポロジを熱光応用に最適化し, (ii) 高効率ビームステアリングのための拡散メタグレーティングを行うことにより, 2つの逆設計問題に対するフレームワークの性能を示す。
論文 参考訳(メタデータ) (2021-05-06T02:22:23Z) - Scalable Deep-Learning-Accelerated Topology Optimization for Additively
Manufactured Materials [4.221095652322005]
トポロジー最適化(TO)は、新しい構造、材料、デバイスを設計するための、人気があり強力な計算手法である。
これらの課題に対処するため、SDL-TOと呼ばれる汎用拡張型ディープラーニング(DL)ベースのToフレームワークを提案する。
我々のフレームワークは、反復履歴データを学習し、与えられた設計と勾配のマッピングを同時にトレーニングすることで、TOを加速します。
論文 参考訳(メタデータ) (2020-11-28T17:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。