論文の概要: Targeted Testing of Compiler Optimizations via Grammar-Level Composition Styles
- arxiv url: http://arxiv.org/abs/2512.04344v1
- Date: Thu, 04 Dec 2025 00:13:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.93547
- Title: Targeted Testing of Compiler Optimizations via Grammar-Level Composition Styles
- Title(参考訳): 文法レベル構成スタイルによるコンパイラ最適化のターゲットテスト
- Authors: Zitong Zhou, Ben Limpanukorn, Hong Jin Kang, Jiyuan Wang, Yaoxuan Wu, Akos Kiss, Renata Hodovan, Miryung Kim,
- Abstract要約: 既存のファズナーは、コンパイラの最適化を効果的にテストするのに苦労している。
パイプラインベーステストの補完として,個別最適化のファジィ化を提案する。
LLVM と MLIR による評価の結果,TargetFuzz のカバレッジは8% と 11% 向上した。
- 参考スコア(独自算出の注目度): 8.598686284546773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring the correctness of compiler optimizations is critical, but existing fuzzers struggle to test optimizations effectively. First, most fuzzers use optimization pipelines (heuristics-based, fixed sequences of passes) as their harness. The phase-ordering problem can enable or preempt transformations, so pipelines inevitably miss optimization interactions; moreover, many optimizations are not scheduled, even at aggressive levels. Second, optimizations typically fire only when inputs satisfy specific structural relationships, which existing generators and mutations struggle to produce. We propose targeted fuzzing of individual optimizations to complement pipeline-based testing. Our key idea is to exploit composition styles - structural relations over program constructs (adjacency, nesting, repetition, ordering) - that optimizations look for. We build a general-purpose, grammar-based mutational fuzzer, TargetFuzz, that (i) mines composition styles from an optimization-relevant corpus, then (ii) rebuilds them inside different contexts offered by a larger, generic corpus via synthesized mutations to test variations of optimization logic. TargetFuzz is adaptable to a new programming language by lightweight, grammar-based, construct annotations - and it automatically synthesizes mutators and crossovers to rebuild composition styles. No need for hand-coded generators or language-specific mutators, which is particularly useful for modular frameworks such as MLIR, whose dialect-based, rapidly evolving ecosystem makes optimizations difficult to fuzz. Our evaluation on LLVM and MLIR shows that TargetFuzz improves coverage by 8% and 11% and triggers optimizations 2.8$\times$ and 2.6$\times$, compared to baseline fuzzers under the targeted fuzzing mode. We show that targeted fuzzing is complementary: it effectively tests all 37 sampled LLVM optimizations, while pipeline-fuzzing missed 12.
- Abstract(参考訳): コンパイラ最適化の正確性を保証することは重要だが、既存のファジィザは最適化を効果的にテストするのに苦労している。
まず、ほとんどのファッジャは最適化パイプライン(ヒューリスティックベース、固定されたパスシーケンス)をハーネスとして使用します。
フェーズオーダリング問題は変換を有効にあるいはプリエンプティブにできるため、パイプラインは必然的に最適化の相互作用を見逃してしまう。
第二に、最適化は通常、入力が特定の構造的関係を満たす場合にのみ発する。
パイプラインベーステストの補完として,個別最適化のファジィ化を提案する。
私たちのキーとなる考え方は、最適化が求めるコンポジションスタイル – プログラム構成(アジャケーシ、ネスト、繰り返し、順序付け)に対する構造的関係 – を活用することです。
汎用文法ベースの突然変異ファザであるTargetFuzzを開発した。
一 最適化関連コーパスから構成様式を採鉱し、
(ii) 最適化論理のバリエーションをテストするために、合成突然変異を用いて、より大規模で汎用的なコーパスによって提供される異なるコンテキスト内でそれらを再構築する。
TargetFuzzは軽量で文法ベースのコンストラクトアノテーションによって新しいプログラミング言語に適応でき、自動的にミュータとクロスオーバーを合成して構成スタイルを再構築する。
手書きのジェネレータや言語固有のミュータは不要で、特にMLIRのような言語ベースの、急速に進化するエコシステムが最適化をファズしにくくするモジュラーフレームワークに有用である。
LLVM と MLIR による評価では,ターゲットファジィモードのベースラインファジィに比べて,TargetFuzz のカバレッジが8%と11%向上し,2.8$\times$ と2.6$\times$ が最適化される。
37サンプルのLLVM最適化をすべて効果的にテストし、パイプラインファジングは12.5%を逃した。
関連論文リスト
- Leveraging Large Language Models to Detect Missed Peephole Optimizations [7.48961433936748]
peephole最適化は、コンパイラ最適化の重要なクラスである。
従来の方法はスケールが良くないか、ペプホール最適化の限られたサブセットしかキャプチャできない。
我々は,LLMの創造的かつ信頼性の低いコード最適化能力と厳密な正確性検証を組み合わせた,新しいフレームワークであるLampoを提案する。
論文 参考訳(メタデータ) (2025-08-22T06:36:42Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - AdaLomo: Low-memory Optimization with Adaptive Learning Rate [59.64965955386855]
大規模言語モデルに対する適応学習率(AdaLomo)を用いた低メモリ最適化を提案する。
AdaLomoはAdamWと同等の結果を得ると同時に、メモリ要件を大幅に削減し、大きな言語モデルをトレーニングするためのハードウェア障壁を低くする。
論文 参考訳(メタデータ) (2023-10-16T09:04:28Z) - Static Neural Compiler Optimization via Deep Reinforcement Learning [1.458855293397494]
本稿では,位相整合問題に対する深層強化学習手法を用いる。
LLVMのO3シークエンスを構成するサブシーケンスを用いて、エージェントはトレーニングに使用するソースコードのセット上でO3シークエンスより優れていることを学習する。
我々は、我々のアプローチを用いて訓練されたモデルは、ニューラル最適化エージェントとして現代のコンパイラに統合できると考えている。
論文 参考訳(メタデータ) (2020-08-20T13:16:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。