論文の概要: CASS: Nvidia to AMD Transpilation with Data, Models, and Benchmark
- arxiv url: http://arxiv.org/abs/2505.16968v1
- Date: Thu, 22 May 2025 17:48:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.516389
- Title: CASS: Nvidia to AMD Transpilation with Data, Models, and Benchmark
- Title(参考訳): CASS: データ、モデル、ベンチマークによるNvidiaからAMDへのトランスパイレーション
- Authors: Ahmed Heakl, Sarim Hashmi, Gustavo Bertolo Stahl, Seung Hun Eddie Han, Salman Khan, Abdulrahman Mahmoud,
- Abstract要約: textttCASSは、クロスアーキテクチャGPUコードトランスパイレーションのための最初の大規模データセットとモデルスイートである。
データセットは、ホストとデバイス間で70万の検証済みコードペアで構成されている。
我々は、ドメイン固有言語モデルのtextttCASS ファミリーを訓練し、95%のソース翻訳精度と37.5%のアセンブリ翻訳精度を達成する。
- 参考スコア(独自算出の注目度): 8.97422045170539
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce \texttt{CASS}, the first large-scale dataset and model suite for cross-architecture GPU code transpilation, targeting both source-level (CUDA~$\leftrightarrow$~HIP) and assembly-level (Nvidia SASS~$\leftrightarrow$~AMD RDNA3) translation. The dataset comprises 70k verified code pairs across host and device, addressing a critical gap in low-level GPU code portability. Leveraging this resource, we train the \texttt{CASS} family of domain-specific language models, achieving 95\% source translation accuracy and 37.5\% assembly translation accuracy, substantially outperforming commercial baselines such as GPT-4o, Claude, and Hipify. Our generated code matches native performance in over 85\% of test cases, preserving runtime and memory behavior. To support rigorous evaluation, we introduce \texttt{CASS-Bench}, a curated benchmark spanning 16 GPU domains with ground-truth execution. All data, models, and evaluation tools are released as open source to foster progress in GPU compiler tooling, binary compatibility, and LLM-guided hardware translation. Dataset and benchmark are on \href{https://huggingface.co/datasets/MBZUAI/cass}{\textcolor{blue}{HuggingFace}}, with code at \href{https://github.com/GustavoStahl/CASS}{\textcolor{blue}{GitHub}}.
- Abstract(参考訳): 我々は、ソースレベル (CUDA~$\leftrightarrow$~HIP) とアセンブリレベル (Nvidia SASS~$\leftrightarrow$~AMD RDNA3) の両方を対象として、クロスアーキテクチャGPUコードトランスパイレーションのための最初の大規模データセットとモデルスイートである \textt{CASS} を紹介する。
データセットはホストとデバイス間で70万の検証済みコードペアで構成されており、低レベルのGPUコードのポータビリティにおいて重要なギャップに対処している。
このリソースを活用することで、ドメイン固有言語モデルのtexttt{CASS}ファミリをトレーニングし、95%のソース翻訳精度と37.5のアセンブリ翻訳精度を実現し、GPT-4o、Claude、Hipifyといった商用ベースラインを大幅に上回ります。
生成されたコードは、85パーセント以上のテストケースでネイティブパフォーマンスと一致し、実行時とメモリの動作を保存する。
厳密な評価を支援するために,16個のGPUドメインにまたがるベンチマークである‘texttt{CASS-Bench} を導入する。
すべてのデータ、モデル、評価ツールがオープンソースとしてリリースされ、GPUコンパイラツールの進歩、バイナリ互換性、LLMによるハードウェア翻訳が促進されている。
データセットとベンチマークは \href{https://huggingface.co/datasets/MBZUAI/cass}{\textcolor{blue}{HuggingFace}} にあり、コードは \href{https://github.com/GustavoStahl/CASS}{\textcolor{blue}{GitHub}} にある。
関連論文リスト
- Can Large Language Models Predict Parallel Code Performance? [1.5221392705893568]
本稿では,Large Language Models (LLM) がハードウェアに依存しないGPU性能予測に代替的なアプローチを提供するかどうかを考察する。
LLMはRooflineモデルについて強く理解しており、明示的なプロファイリングデータを備えた場合、100%の分類精度を達成する。
以上の結果から,より優れたデータセットと迅速な戦略により,LLMはHPCルーフライン解析および性能ポータビリティのための実用的なツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2025-05-06T21:41:20Z) - Enhancing Cross-Language Code Translation via Task-Specific Embedding Alignment in Retrieval-Augmented Generation [1.64043572114825]
本稿では,タスク固有の埋め込みアライメントを統合することで,FortranからC++へのクロス言語コード変換を強化する手法を提案する。
我々の戦略は、CodeBLEUメトリックによって定量化されているように、検索モデルを翻訳品質を最大化する目的と直接一致させる。
これらのCodeBLEU最適化埋め込みをRAGフレームワークに統合することにより、検索精度とコード生成品質の両方を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-06T16:22:32Z) - KGym: A Platform and Dataset to Benchmark Large Language Models on Linux Kernel Crash Resolution [59.20933707301566]
大規模言語モデル(LLM)は、ますます現実的なソフトウェア工学(SE)タスクにおいて一貫して改善されている。
現実世界のソフトウェアスタックでは、Linuxカーネルのような基本的なシステムソフトウェアの開発にSEの取り組みが費やされています。
このような大規模システムレベルのソフトウェアを開発する際にMLモデルが有用かどうかを評価するため、kGymとkBenchを紹介する。
論文 参考訳(メタデータ) (2024-07-02T21:44:22Z) - Creating a Dataset for High-Performance Computing Code Translation using
LLMs: A Bridge Between OpenMP Fortran and C++ [7.872005563259838]
定量化(CodeBLEU)法と定性的評価(人的評価)法の両方を用いて,本データセットの有効性を評価する。
事前のコーディング知識を持たないモデルでは、CodeBLEUスコアで$mathbftimes5.1$が上昇した。
コーディングに親しみのあるモデルでは、$mathbftimes9.9$-foldが顕著に増加した。
論文 参考訳(メタデータ) (2023-07-15T02:35:51Z) - HDCC: A Hyperdimensional Computing compiler for classification on
embedded systems and high-performance computing [58.720142291102135]
この研究は、HDC分類メソッドの高レベルな記述を最適化されたCコードに変換する最初のオープンソースコンパイラである、ネームコンパイラを紹介している。
nameは現代のコンパイラのように設計されており、直感的で記述的な入力言語、中間表現(IR)、再ターゲット可能なバックエンドを備えている。
これらの主張を裏付けるために,HDC文献で最もよく使われているデータセットについて,HDCCを用いて実験を行った。
論文 参考訳(メタデータ) (2023-04-24T19:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。