論文の概要: IntrinTrans: LLM-based Intrinsic Code Translator for RISC-V Vector
- arxiv url: http://arxiv.org/abs/2510.10119v1
- Date: Sat, 11 Oct 2025 08:52:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.794815
- Title: IntrinTrans: LLM-based Intrinsic Code Translator for RISC-V Vector
- Title(参考訳): IntrinTrans:RISC-Vベクトル用LLMベースの固有コードトランスレータ
- Authors: Liutong Han, Zhiyuan Tan, Hongbin Zhang, Pengcheng Wang, Chu Kang, Mingjie Xing, Yanjun Wu,
- Abstract要約: 既存のベクトル化された内在的コードをRVV内在的に変換することは、実用的で効果的なアプローチである。
現在のクロスアーキテクチャの翻訳は手書きの書き換えに大きく依存している。
IntrinTransは、コンパイルとテストのフィードバックを利用して、アーキテクチャ間で固有のコードを自動的に翻訳するマルチエージェントアプローチである。
- 参考スコア(独自算出の注目度): 9.678932711610244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of intrinsic functions to exploit hardware-specific capabilities is an important approach for optimizing library performance. Many mainstream libraries implement a large number of vectorized algorithms on Arm or x86 SIMD intrinsic functions. With the rapid expansion of the RISC-V hardware-software ecosystem, there is a growing demand for support of the RISC-V Vector (RVV) extension. Translating existing vectorized intrinsic code onto RVV intrinsics is a practical and effective approach. However, current cross-architecture translation largely relies on manual rewriting, which is time-consuming and error-prone. Furthermore, while some rule-based methods can reduce the need for manual intervention, their translation success rate is limited by incomplete rule coverage and syntactic constraints, and the performance suffers from inadequate utilization of RVV-specific features. We present IntrinTrans, a LLM-based multi-agent approach that utilizes compile-and-test feedback to translate intrinsic code across architectures automatically, and further optimizes the generated RVV intrinsics using register-usage information derived from liveness analysis. To evaluate the effectiveness of our approach, we collected 34 vectorized algorithm cases from open-source libraries. Each case includes an Arm Neon intrinsics implementation and a RVV intrinsics implementation contributed by the open-source community, together with correctness and performance tests. Our experiments show that advanced LLMs produce semantically correct RISC-V Vector intrinsics in most cases within a limited number of iterations, and in some cases achieve up to 5.93x the performance of the native implementation from the open-source community.
- Abstract(参考訳): ハードウェア固有の機能を活用するために本質的な関数を用いることは、ライブラリのパフォーマンスを最適化するための重要なアプローチである。
多くの主流ライブラリは、Armやx86 SIMD固有の関数に多くのベクトル化アルゴリズムを実装している。
RISC-Vハードウェア・ソフトウェアエコシステムの急速な拡大に伴い、RISC-V Vector (RVV)拡張のサポートに対する需要が高まっている。
既存のベクトル化された内在的コードをRVV内在的に変換することは、実用的で効果的なアプローチである。
しかし、現在のクロスアーキテクチャの翻訳は手書きの書き換えに大きく依存している。
さらに、いくつかのルールベースの手法は手動介入の必要性を減らすことができるが、それらの翻訳成功率は不完全なルールカバレッジと構文制約によって制限され、その性能はRVV特有の特徴の不十分な利用に悩まされる。
本稿では,LLMに基づくマルチエージェントアプローチであるIntrinTransについて述べる。コンパイルとテストのフィードバックを利用して,アーキテクチャ間での固有コードの自動変換を行う。
提案手法の有効性を評価するため,オープンソースライブラリから34のベクトル化アルゴリズムケースを収集した。
それぞれのケースには、Arm Neon固有の実装と、オープンソースコミュニティがコントリビュートしたRVV固有の実装と、正確性とパフォーマンステストが含まれている。
実験の結果,先進的なLLMは,ほとんどの場合において,限られた反復数で意味論的に正しいRISC-Vベクターの内在性が得られ,また,オープンソースコミュニティによるネイティブ実装の性能を最大5.93倍に向上することがわかった。
関連論文リスト
- Sample-Efficient Online Learning in LM Agents via Hindsight Trajectory Rewriting [92.57796055887995]
本稿では,言語モデルエージェントの強化学習から後視体験のリプレイに適応するプロンプトフレームワークECHOを紹介する。
ECHOは失敗した試みで達成できた代替目標のために最適化された軌道を生成する。
我々は、テキストベースのナビゲーションと計画ベンチマークであるXMiniGridのステートフルバージョンと、協調的な情報収集企業シミュレーションであるPeopleJoinQAについて、ECHOを評価した。
論文 参考訳(メタデータ) (2025-10-11T18:11:09Z) - Retrofitting Control Flow Graphs in LLVM IR for Auto Vectorization [0.14323566945483493]
本稿では,高次構造情報をエンコードするSIRと,データ依存解析による依存性を明示的に表現するVIRという,2つの特殊なIR拡張を備えたベクトル化パイプラインを提案する。
提案するベクトル化パイプラインは,LLVMとGCCと比較して最大53%,58%の高速化を実現している。
論文 参考訳(メタデータ) (2025-10-06T15:11:41Z) - VerlTool: Towards Holistic Agentic Reinforcement Learning with Tool Use [78.29315418819074]
VerlToolは、体系的な設計原則を通じて制限に対処する統一的でモジュール化されたフレームワークです。
我々のフレームワークはARLTをマルチターントラジェクトリとして定式化し、マルチモード観測トークン(テキスト/画像/ビデオ)を単一ターンRLVRパラダイムを超えて拡張する。
モジュール化されたプラグインアーキテクチャは、軽量Python定義のみを必要とする迅速なツール統合を可能にする。
論文 参考訳(メタデータ) (2025-09-01T01:45:18Z) - SimdBench: Benchmarking Large Language Models for SIMD-Intrinsic Code Generation [7.839161849517216]
大きな言語モデルは、SIMD固有のプログラミングの課題でプログラマを支援することを約束している。
既存のコード生成ベンチマークではスカラーコードのみに焦点が当てられており、SIMDイントロニクスを用いたベクトル化コードの生成においてLLMがどのように機能するかは定かではない。
我々はSIMD固有のコード生成用に特別に設計された最初のコードベンチマークであるSimdBenchを提案する。
論文 参考訳(メタデータ) (2025-07-21T03:55:41Z) - Tensor Program Optimization for the RISC-V Vector Extension Using Probabilistic Programs [0.6242215470795112]
RISC-VベクトルユニットにAIワークロードを効率的にマッピングするためのTVMコンパイラに基づくワークフローを提案する。
本提案では,GCCのオートベクタ化機能と比較して,実行レイテンシが平均46%向上したことを示す。
コミュニティが他のRISC-V拡張をターゲットに拡張する提案をオープンソースとして公開しました。
論文 参考訳(メタデータ) (2025-07-02T08:15:33Z) - Beyond the Edge of Function: Unraveling the Patterns of Type Recovery in Binary Code [55.493408628371235]
本稿では,バイナリコードの変数型を復元するフレームワークByteTRを提案する。
ByteTRは、関数間の変数伝搬の普遍性を考慮して、変数伝搬をトレースするためのプロシーダ間解析を行い、ゲートグラフニューラルネットワークを用いて、変数型回復のための長距離データフロー依存性をキャプチャする。
論文 参考訳(メタデータ) (2025-03-10T12:27:05Z) - LLM-Vectorizer: LLM-based Verified Loop Vectorizer [12.048697450464935]
大規模言語モデル(LLM)は、個々の配列要素を処理するスカラープログラムからベクトル化されたコードを生成することができる。
LLMは1.1xから9.4xまでのランタイムスピードアップで高性能なベクトルコードを生成することができる。
我々のアプローチでは、TSVCベンチマークデータセットで正しいベクター化の38.2%を検証できる。
論文 参考訳(メタデータ) (2024-06-07T07:04:26Z) - QTRAN++: Improved Value Transformation for Cooperative Multi-Agent
Reinforcement Learning [70.382101956278]
QTRANは、最大級の共同作用値関数を学習できる強化学習アルゴリズムである。
理論的な保証は強いが、複雑な環境での実証的な性能は劣っている。
そこで我々はQTRAN++という改良版を提案する。
論文 参考訳(メタデータ) (2020-06-22T05:08:36Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。