論文の概要: Retrofitting Control Flow Graphs in LLVM IR for Auto Vectorization
- arxiv url: http://arxiv.org/abs/2510.04890v1
- Date: Mon, 06 Oct 2025 15:11:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.928487
- Title: Retrofitting Control Flow Graphs in LLVM IR for Auto Vectorization
- Title(参考訳): 自動ベクトル化のためのLLVM IRにおける制御フローグラフの再構成
- Authors: Shihan Fang, Wenxin Zheng,
- Abstract要約: 本稿では,高次構造情報をエンコードするSIRと,データ依存解析による依存性を明示的に表現するVIRという,2つの特殊なIR拡張を備えたベクトル化パイプラインを提案する。
提案するベクトル化パイプラインは,LLVMとGCCと比較して最大53%,58%の高速化を実現している。
- 参考スコア(独自算出の注目度): 0.14323566945483493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern processors increasingly rely on SIMD instruction sets, such as AVX and RVV, to significantly enhance parallelism and computational performance. However, production-ready compilers like LLVM and GCC often fail to fully exploit available vectorization opportunities due to disjoint vectorization passes and limited extensibility. Although recent attempts in heuristics and intermediate representation (IR) designs have attempted to address these problems, efficiently simplifying control flow analysis and accurately identifying vectorization opportunities remain challenging tasks. To address these issues, we introduce a novel vectorization pipeline featuring two specialized IR extensions: SIR, which encodes high-level structural information, and VIR, which explicitly represents instruction dependencies through data dependency analysis. Leveraging the detailed dependency information provided by VIR, we develop a flexible and extensible vectorization framework. This approach substantially improves interoperability across vectorization passes and expands the search space for identifying isomorphic instructions, ultimately enhancing both the scope and efficiency of automatic vectorization. Experimental evaluations demonstrate that our proposed vectorization pipeline achieves significant performance improvements, delivering speedups of up to 53% and 58% compared to LLVM and GCC, respectively.
- Abstract(参考訳): 現代のプロセッサは、並列性と計算性能を大幅に向上させるために、AVXやRVVのようなSIMD命令セットに依存している。
しかし、LLVMやGCCのような実運用対応のコンパイラは、不整合ベクター化パスと拡張性の制限により、利用可能なベクター化の機会を完全に活用できないことが多い。
近年のヒューリスティックスと中間表現(IR)設計の試みはこれらの問題に対処しようと試みているが、制御フロー解析を効率的に単純化し、ベクトル化の機会を正確に同定することは難しい課題である。
これらの問題に対処するために、高レベルの構造情報をエンコードするSIRと、データ依存分析による命令依存を明示的に表現するVIRという2つの特殊なIR拡張を特徴とするベクトル化パイプラインを導入する。
VIRが提供する詳細な依存性情報を活用することで、フレキシブルで拡張可能なベクトル化フレームワークを開発する。
このアプローチはベクトル化パス間の相互運用性を大幅に改善し、同型命令を識別するための探索空間を拡張し、最終的には自動ベクトル化のスコープと効率を拡大する。
実験により,提案したベクトル化パイプラインはLLVMとGCCと比較して最大53%,58%の高速化を実現した。
関連論文リスト
- Flash-Searcher: Fast and Effective Web Agents via DAG-Based Parallel Execution [48.7788770680643]
Flash-Searcherは、新しい並列エージェント推論フレームワークである。
複雑なタスクを明示的な依存関係でサブタスクに分解し、独立した推論パスの同時実行を可能にする。
BrowseCompでは67.7%の精度で、xbench-DeepSearchでは83%、エージェントの実行手順は現在のフレームワークに比べて最大35%削減されている。
論文 参考訳(メタデータ) (2025-09-29T17:39:30Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - VectorLiteRAG: Latency-Aware and Fine-Grained Resource Partitioning for Efficient RAG [2.0929459605817193]
Retrieval-Augmented Generation (RAG) システムは、ベクトル類似性探索と大言語モデル(LLM)を組み合わせてコンテキスト対応の応答を提供する。
本稿では,VectorLiteRAGを提案する。VectorLiteRAGは,追加のハードウェアリソースを必要とせず,遅延に順応する推論を実現する。
論文 参考訳(メタデータ) (2025-04-11T19:18:41Z) - VecTrans: Enhancing Compiler Auto-Vectorization through LLM-Assisted Code Transformations [17.974013479973774]
VecTransは、コンパイラベースのコードベクトル化を強化するために、大きな言語モデルを活用するフレームワークである。
VecTransは1.77倍のGeomeanスピードアップを実現し、51のテストケースのうち24をベクトル化することに成功した。
論文 参考訳(メタデータ) (2025-03-25T08:39:35Z) - Vector-ICL: In-context Learning with Continuous Vector Representations [75.96920867382859]
大規模言語モデル (LLM) はテキストデータに顕著なコンテキスト内学習能力を示す。
ブラックボックス事前学習エンコーダから得られる様々な領域から連続ベクトルに拡張できるかどうかを検討する。
特に,汎用言語モデリング目的のプロジェクタを事前学習することで,Vector-ICLの実現が期待できる。
論文 参考訳(メタデータ) (2024-10-08T02:25:38Z) - LLM-Vectorizer: LLM-based Verified Loop Vectorizer [12.048697450464935]
大規模言語モデル(LLM)は、個々の配列要素を処理するスカラープログラムからベクトル化されたコードを生成することができる。
LLMは1.1xから9.4xまでのランタイムスピードアップで高性能なベクトルコードを生成することができる。
我々のアプローチでは、TSVCベンチマークデータセットで正しいベクター化の38.2%を検証できる。
論文 参考訳(メタデータ) (2024-06-07T07:04:26Z) - Low-Resolution Self-Attention for Semantic Segmentation [93.30597515880079]
我々は,グローバルコンテキストを計算コストの大幅な削減で捉えるために,低解像度自己認識(LRSA)機構を導入する。
我々のアプローチは、入力画像の解像度に関わらず、固定された低解像度空間における自己注意を計算することである。
本稿では,エンコーダ・デコーダ構造を持つビジョントランスであるLRFormerを構築することで,LRSA手法の有効性を示す。
論文 参考訳(メタデータ) (2023-10-08T06:10:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。