論文の概要: Fuzzing MLIR by Synthesizing Custom Mutations
- arxiv url: http://arxiv.org/abs/2404.16947v1
- Date: Thu, 25 Apr 2024 18:00:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 14:43:43.663137
- Title: Fuzzing MLIR by Synthesizing Custom Mutations
- Title(参考訳): カスタム変異の合成によるファジングMLIR
- Authors: Ben Limpanukorn, Jiyuan Wang, Hong Jin Kang, Eric Zitong Zhou, Miryung Kim,
- Abstract要約: MLIR(Multi-Level Intermediate Representation)は、コンパイラ開発を高速化するための取り組みである。
MLIRは特定のドメインに適した新しいIRを定義する。
SynthFuzzと呼ばれる新しいアプローチを設計し、既存のテストからカスタムの突然変異を自動的に推論し、適用します。
- 参考スコア(独自算出の注目度): 6.617861009996863
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-Level Intermediate Representation (MLIR) is an effort to enable faster compiler development by providing an extensible framework for downstream developers to define custom IRs with MLIR dialects. MLIR dialects define new IRs that are tailored for specific domains. The diversity and rapid evolution of these IRs make it impractical to pre-define custom generator logic for every available dialect. We design a new approach called SynthFuzz that automatically infers and applies custom mutations from existing tests. Inferred custom mutations are parameterized and context-dependent such that they can be concretized depending on the target context. By doing this, we obviate the need to manually write custom mutations for newly introduced MLIR dialects. Further, SynthFuzz increases the chance of finding effective edit locations and reduces the chance of inserting invalid edit content by performing k-ancestor-prefix and l-sibling-postfix matching. We compare SynthFuzz to three baselines: Grammarinator -- a grammar-based fuzzer without custom mutators, MLIRSmith -- a custom test generator for MLIR, and NeuRI -- a custom test generator with support for parameterized generation. We conduct this comparison on 4 different MLIR projects where each project defines a new set of MLIR dialects that would take months of effort to manually write custom input generation and mutation logic. We show that SynthFuzz on average improves input diversity by 1.51$\times$, which increases branch coverage by 1.16$\times$. Further, we show that our context dependent custom mutation increases the proportion of valid tests by up to 1.11$\times$, indicating that SynthFuzz correctly concretizes its parameterized mutations with respect to the target context. Mutation parameterization reduces the fraction of tests violating general MLIR constraints by 0.57$\times$, increasing the time spent fuzzing dialect-specific code.
- Abstract(参考訳): マルチレベル中間表現(Multi-Level Intermediate Representation、MLIR)は、下流の開発者がMLIR方言でカスタムIRを定義するための拡張可能なフレームワークを提供することで、より高速なコンパイラ開発を可能にする試みである。
MLIR方言は特定のドメインに適した新しいIRを定義する。
これらのIRの多様性と急速な進化により、利用可能なすべての方言に対してカスタムジェネレータロジックを事前に定義することは不可能である。
SynthFuzzと呼ばれる新しいアプローチを設計し、既存のテストからカスタムの突然変異を自動的に推論し、適用します。
推測されたカスタム突然変異は、パラメータ化され、コンテキストに依存して、ターゲットのコンテキストに応じて調整される。
これにより、新しく導入されたMLIR方言のカスタム突然変異を手作業で書く必要がなくなる。
さらに、SynthFuzzは、有効な編集場所を見つける可能性を高め、k-ancestor-prefixとl-sibling-postfixマッチングを実行することで、無効な編集コンテンツを挿入する可能性を減らす。
SynthFuzzを3つのベースラインと比較する。Grammarinator – カスタムミュータを持たない文法ベースのファジタ,MLIR用のカスタムテストジェネレータであるMLIRSmith,パラメータ生成をサポートするカスタムテストジェネレータであるNeuRI。
この比較は、4つの異なるMLIRプロジェクトで行われ、各プロジェクトはカスタム入力生成と突然変異ロジックを手作業で書くのに何ヶ月もかかるMLIR方言のセットを定義します。
SynthFuzz は平均で入力の多様性を 1.51$\times$ で改善し、ブランチカバレッジを 1.16$\times$ で増加させます。
さらに,我々の文脈依存型カスタム突然変異は有効テストの割合を最大1.11$\times$まで増加させ,SynthFuzzがターゲットコンテキストに対してパラメータ化された突然変異を正しく増加させることを示す。
突然変異パラメータ化は、一般的なMLIR制約に違反するテストの割合を0.57$\times$に減らし、方言固有のコードに時間を費やす。
関連論文リスト
- MMT: Mutation Testing of Java Bytecode with Model Transformation -- An Illustrative Demonstration [0.11470070927586014]
突然変異テストは、テストスイートの堅牢性をチェックするアプローチである。
本稿では,Javaバイトコードの変異をモデル変換によって柔軟に定義できるモデル駆動型アプローチを提案する。
MMTと呼ばれるツールは、オブジェクト指向構造を変更するための高度な突然変異演算子によって拡張されている。
論文 参考訳(メタデータ) (2024-04-22T11:33:21Z) - LLMorpheus: Mutation Testing using Large Language Models [7.312170216336085]
本稿では,ソースコードに挿入されたプレースホルダーを置き換えることで,LLM(Large Language Model)に変異を提案する手法を提案する。
LLMorpheusは、最先端の突然変異検査ツールであるStrykerJSでは生成できない既存のバグに似た変異を生成できる。
論文 参考訳(メタデータ) (2024-04-15T17:25:14Z) - MRL Parsing Without Tears: The Case of Hebrew [14.104766026682384]
形態的にリッチな言語(MRL)では、トークンごとに複数の語彙単位を識別する必要があるが、既存のシステムはレイテンシとセットアップの複雑さに悩まされている。
決定は、専門家の分類器によって、各ユニットが1つの特定のタスクに特化して行われる。
この信じられないほど高速なアプローチは、HebrewのPOSタグ付けと依存性解析に新しいSOTAを設定し、他のHebrewタスクではほぼSOTAのパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:54:33Z) - A Novel Refactoring and Semantic Aware Abstract Syntax Tree Differencing
Tool and a Benchmark for Evaluating the Accuracy of Diff Tools [2.436681150766912]
Syntax Tree (AST) diffツールは、ほとんどの開発者が使っている行ベースのdiffツールの制限を克服するために開発された。
上記の制限をすべて解決するRefactoringMinerに基づく新しいAST diffツールを提案する。
当社のツールは,特にコミットにおいて,非互換性ツールに匹敵する実行時間で,大幅な精度の向上とリコールを実現しています。
論文 参考訳(メタデータ) (2024-03-09T15:32:41Z) - Contrastive Instruction Tuning [66.6226795160117]
本稿では,意味論的に等価な命令-インスタンスペアの隠れ表現の類似性を最大化するコントラスト的命令チューニングを提案する。
PromptBenchベンチマークの実験によると、CoINはLLMの頑健さを一貫して改善し、文字、単語、文、意味のレベルを平均して2.5%の精度で変化させる。
論文 参考訳(メタデータ) (2024-02-17T00:09:32Z) - IRFuzzer: Specialized Fuzzing for LLVM Backend Code Generation [3.7297002723174235]
IRFuzzerを実装し,LLVMコンパイラバックエンドのファジィ化の有効性について検討する。
IRFuzzerのミューテータは、構造化制御フロー、ベクトルタイプ、関数定義を含む幅広いLLVM IR入力を生成することができる。
IRFuzzer は 29 の成熟した LLVM バックエンドターゲットにファジィをファジィ化することで,既存のファジィよりも有効であることを示す。
論文 参考訳(メタデータ) (2024-02-07T21:02:33Z) - Winning Prize Comes from Losing Tickets: Improve Invariant Learning by
Exploring Variant Parameters for Out-of-Distribution Generalization [76.27711056914168]
Out-of-Distribution (OOD) 一般化は、分散固有の特徴に適合することなく、様々な環境によく適応する堅牢なモデルを学ぶことを目的としている。
LTH(Lottery Ticket hypothesis)に基づく最近の研究は、学習目標を最小化し、タスクに重要なパラメータのいくつかを見つけることでこの問題に対処している。
Invariant Learning (EVIL) における変数探索手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:57Z) - Paraformer: Fast and Accurate Parallel Transformer for
Non-autoregressive End-to-End Speech Recognition [62.83832841523525]
そこで我々はParaformerと呼ばれる高速かつ高精度な並列トランスを提案する。
出力トークンの数を正確に予測し、隠れた変数を抽出する。
10倍以上のスピードアップで、最先端のARトランスフォーマーに匹敵するパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2022-06-16T17:24:14Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z) - Constructing interval variables via faceted Rasch measurement and
multitask deep learning: a hate speech application [63.10266319378212]
本稿では,教師付き深層学習と多面的ラッシュアイテム応答理論(IRT)構築手法を組み合わせることで,連続区間スペクトル上の複素変数を測定する手法を提案する。
われわれは、YouTube、Twitter、Redditから5万件のソーシャルメディアコメントを収集し、1万1000人の米国拠点のAmazon Mechanical Turkの労働者によってラベル付けされたデータセット上で、この新しい手法を実証した。
論文 参考訳(メタデータ) (2020-09-22T02:15:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。