論文の概要: Targeted Testing of Compiler Optimizations via Grammar-Level Composition Styles
- arxiv url: http://arxiv.org/abs/2512.04344v1
- Date: Thu, 04 Dec 2025 00:13:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.93547
- Title: Targeted Testing of Compiler Optimizations via Grammar-Level Composition Styles
- Title(参考訳): 文法レベル構成スタイルによるコンパイラ最適化のターゲットテスト
- Authors: Zitong Zhou, Ben Limpanukorn, Hong Jin Kang, Jiyuan Wang, Yaoxuan Wu, Akos Kiss, Renata Hodovan, Miryung Kim,
- Abstract要約: 既存のファズナーは、コンパイラの最適化を効果的にテストするのに苦労している。
パイプラインベーステストの補完として,個別最適化のファジィ化を提案する。
LLVM と MLIR による評価の結果,TargetFuzz のカバレッジは8% と 11% 向上した。
- 参考スコア(独自算出の注目度): 8.598686284546773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring the correctness of compiler optimizations is critical, but existing fuzzers struggle to test optimizations effectively. First, most fuzzers use optimization pipelines (heuristics-based, fixed sequences of passes) as their harness. The phase-ordering problem can enable or preempt transformations, so pipelines inevitably miss optimization interactions; moreover, many optimizations are not scheduled, even at aggressive levels. Second, optimizations typically fire only when inputs satisfy specific structural relationships, which existing generators and mutations struggle to produce. We propose targeted fuzzing of individual optimizations to complement pipeline-based testing. Our key idea is to exploit composition styles - structural relations over program constructs (adjacency, nesting, repetition, ordering) - that optimizations look for. We build a general-purpose, grammar-based mutational fuzzer, TargetFuzz, that (i) mines composition styles from an optimization-relevant corpus, then (ii) rebuilds them inside different contexts offered by a larger, generic corpus via synthesized mutations to test variations of optimization logic. TargetFuzz is adaptable to a new programming language by lightweight, grammar-based, construct annotations - and it automatically synthesizes mutators and crossovers to rebuild composition styles. No need for hand-coded generators or language-specific mutators, which is particularly useful for modular frameworks such as MLIR, whose dialect-based, rapidly evolving ecosystem makes optimizations difficult to fuzz. Our evaluation on LLVM and MLIR shows that TargetFuzz improves coverage by 8% and 11% and triggers optimizations 2.8$\times$ and 2.6$\times$, compared to baseline fuzzers under the targeted fuzzing mode. We show that targeted fuzzing is complementary: it effectively tests all 37 sampled LLVM optimizations, while pipeline-fuzzing missed 12.
- Abstract(参考訳): コンパイラ最適化の正確性を保証することは重要だが、既存のファジィザは最適化を効果的にテストするのに苦労している。
まず、ほとんどのファッジャは最適化パイプライン(ヒューリスティックベース、固定されたパスシーケンス)をハーネスとして使用します。
フェーズオーダリング問題は変換を有効にあるいはプリエンプティブにできるため、パイプラインは必然的に最適化の相互作用を見逃してしまう。
第二に、最適化は通常、入力が特定の構造的関係を満たす場合にのみ発する。
パイプラインベーステストの補完として,個別最適化のファジィ化を提案する。
私たちのキーとなる考え方は、最適化が求めるコンポジションスタイル – プログラム構成(アジャケーシ、ネスト、繰り返し、順序付け)に対する構造的関係 – を活用することです。
汎用文法ベースの突然変異ファザであるTargetFuzzを開発した。
一 最適化関連コーパスから構成様式を採鉱し、
(ii) 最適化論理のバリエーションをテストするために、合成突然変異を用いて、より大規模で汎用的なコーパスによって提供される異なるコンテキスト内でそれらを再構築する。
TargetFuzzは軽量で文法ベースのコンストラクトアノテーションによって新しいプログラミング言語に適応でき、自動的にミュータとクロスオーバーを合成して構成スタイルを再構築する。
手書きのジェネレータや言語固有のミュータは不要で、特にMLIRのような言語ベースの、急速に進化するエコシステムが最適化をファズしにくくするモジュラーフレームワークに有用である。
LLVM と MLIR による評価では,ターゲットファジィモードのベースラインファジィに比べて,TargetFuzz のカバレッジが8%と11%向上し,2.8$\times$ と2.6$\times$ が最適化される。
37サンプルのLLVM最適化をすべて効果的にテストし、パイプラインファジングは12.5%を逃した。
関連論文リスト
- Towards Robust Scaling Laws for Optimizers [89.21160945066737]
経験的スケーリング法則は、モデルのサイズやトレーニングデータの増加に伴って損失を予測するために広く使用されている。
本研究では, 損失分解を既約, 近似, 最適化誤差に分解した結果, チンチラ方式のスケーリング法則が自然に現れることを示す。
論文 参考訳(メタデータ) (2026-02-07T21:40:33Z) - Efficient Differentiable Causal Discovery via Reliable Super-Structure Learning [51.20606796019663]
本稿では,新たな因果発見パイプラインであるALVGLを提案する。
ALVGLはスパース分解とローランク分解を用いてデータの精度行列を学習する。
ALVGLは最先端の精度を達成するだけでなく、最適化効率を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2026-01-09T02:18:59Z) - A Hybrid, Knowledge-Guided Evolutionary Framework for Personalized Compiler Auto-Tuning [11.527479356386706]
本稿では,ハイブリッドな知識指導型進化的フレームワークを提案する。
このフレームワークは、大規模なオフライン分析フェーズから抽出した知識を用いて、オンラインでパーソナライズされた最適化をインテリジェントにガイドする。
オンラインの段階では、Bespokeの遺伝的アルゴリズムは、特別に設計された知識を注入した遺伝オペレーターを通じて、この豊富な知識ベースを活用する。
論文 参考訳(メタデータ) (2025-10-16T04:31:40Z) - Leveraging Large Language Models to Detect Missed Peephole Optimizations [7.48961433936748]
peephole最適化は、コンパイラ最適化の重要なクラスである。
従来の方法はスケールが良くないか、ペプホール最適化の限られたサブセットしかキャプチャできない。
我々は,LLMの創造的かつ信頼性の低いコード最適化能力と厳密な正確性検証を組み合わせた,新しいフレームワークであるLampoを提案する。
論文 参考訳(メタデータ) (2025-08-22T06:36:42Z) - Compiler Optimization Testing Based on Optimization-Guided Equivalence Transformations [3.2987550056134873]
本稿では,コンパイラ最適化にインスパイアされたメタモルフィックテスト手法を提案する。
提案手法ではまず,最適化条件を満たす入力プログラムを生成するために,最適化されたコード構築戦略を用いる。
事前変換プログラムと後変換プログラムの出力を比較することで、不正な最適化バグを効果的に識別する。
論文 参考訳(メタデータ) (2025-04-06T01:37:57Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - AdaLomo: Low-memory Optimization with Adaptive Learning Rate [59.64965955386855]
大規模言語モデルに対する適応学習率(AdaLomo)を用いた低メモリ最適化を提案する。
AdaLomoはAdamWと同等の結果を得ると同時に、メモリ要件を大幅に削減し、大きな言語モデルをトレーニングするためのハードウェア障壁を低くする。
論文 参考訳(メタデータ) (2023-10-16T09:04:28Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Static Neural Compiler Optimization via Deep Reinforcement Learning [1.458855293397494]
本稿では,位相整合問題に対する深層強化学習手法を用いる。
LLVMのO3シークエンスを構成するサブシーケンスを用いて、エージェントはトレーニングに使用するソースコードのセット上でO3シークエンスより優れていることを学習する。
我々は、我々のアプローチを用いて訓練されたモデルは、ニューラル最適化エージェントとして現代のコンパイラに統合できると考えている。
論文 参考訳(メタデータ) (2020-08-20T13:16:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。