論文の概要: Fuzzing MLIR by Synthesizing Custom Mutations
- arxiv url: http://arxiv.org/abs/2404.16947v1
- Date: Thu, 25 Apr 2024 18:00:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 14:43:43.663137
- Title: Fuzzing MLIR by Synthesizing Custom Mutations
- Title(参考訳): カスタム変異の合成によるファジングMLIR
- Authors: Ben Limpanukorn, Jiyuan Wang, Hong Jin Kang, Eric Zitong Zhou, Miryung Kim,
- Abstract要約: MLIR(Multi-Level Intermediate Representation)は、コンパイラ開発を高速化するための取り組みである。
MLIRは特定のドメインに適した新しいIRを定義する。
SynthFuzzと呼ばれる新しいアプローチを設計し、既存のテストからカスタムの突然変異を自動的に推論し、適用します。
- 参考スコア(独自算出の注目度): 6.617861009996863
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-Level Intermediate Representation (MLIR) is an effort to enable faster compiler development by providing an extensible framework for downstream developers to define custom IRs with MLIR dialects. MLIR dialects define new IRs that are tailored for specific domains. The diversity and rapid evolution of these IRs make it impractical to pre-define custom generator logic for every available dialect. We design a new approach called SynthFuzz that automatically infers and applies custom mutations from existing tests. Inferred custom mutations are parameterized and context-dependent such that they can be concretized depending on the target context. By doing this, we obviate the need to manually write custom mutations for newly introduced MLIR dialects. Further, SynthFuzz increases the chance of finding effective edit locations and reduces the chance of inserting invalid edit content by performing k-ancestor-prefix and l-sibling-postfix matching. We compare SynthFuzz to three baselines: Grammarinator -- a grammar-based fuzzer without custom mutators, MLIRSmith -- a custom test generator for MLIR, and NeuRI -- a custom test generator with support for parameterized generation. We conduct this comparison on 4 different MLIR projects where each project defines a new set of MLIR dialects that would take months of effort to manually write custom input generation and mutation logic. We show that SynthFuzz on average improves input diversity by 1.51$\times$, which increases branch coverage by 1.16$\times$. Further, we show that our context dependent custom mutation increases the proportion of valid tests by up to 1.11$\times$, indicating that SynthFuzz correctly concretizes its parameterized mutations with respect to the target context. Mutation parameterization reduces the fraction of tests violating general MLIR constraints by 0.57$\times$, increasing the time spent fuzzing dialect-specific code.
- Abstract(参考訳): マルチレベル中間表現(Multi-Level Intermediate Representation、MLIR)は、下流の開発者がMLIR方言でカスタムIRを定義するための拡張可能なフレームワークを提供することで、より高速なコンパイラ開発を可能にする試みである。
MLIR方言は特定のドメインに適した新しいIRを定義する。
これらのIRの多様性と急速な進化により、利用可能なすべての方言に対してカスタムジェネレータロジックを事前に定義することは不可能である。
SynthFuzzと呼ばれる新しいアプローチを設計し、既存のテストからカスタムの突然変異を自動的に推論し、適用します。
推測されたカスタム突然変異は、パラメータ化され、コンテキストに依存して、ターゲットのコンテキストに応じて調整される。
これにより、新しく導入されたMLIR方言のカスタム突然変異を手作業で書く必要がなくなる。
さらに、SynthFuzzは、有効な編集場所を見つける可能性を高め、k-ancestor-prefixとl-sibling-postfixマッチングを実行することで、無効な編集コンテンツを挿入する可能性を減らす。
SynthFuzzを3つのベースラインと比較する。Grammarinator – カスタムミュータを持たない文法ベースのファジタ,MLIR用のカスタムテストジェネレータであるMLIRSmith,パラメータ生成をサポートするカスタムテストジェネレータであるNeuRI。
この比較は、4つの異なるMLIRプロジェクトで行われ、各プロジェクトはカスタム入力生成と突然変異ロジックを手作業で書くのに何ヶ月もかかるMLIR方言のセットを定義します。
SynthFuzz は平均で入力の多様性を 1.51$\times$ で改善し、ブランチカバレッジを 1.16$\times$ で増加させます。
さらに,我々の文脈依存型カスタム突然変異は有効テストの割合を最大1.11$\times$まで増加させ,SynthFuzzがターゲットコンテキストに対してパラメータ化された突然変異を正しく増加させることを示す。
突然変異パラメータ化は、一般的なMLIR制約に違反するテストの割合を0.57$\times$に減らし、方言固有のコードに時間を費やす。
関連論文リスト
- Evaluating Semantic Variation in Text-to-Image Synthesis: A Causal Perspective [50.261681681643076]
本稿では,SemVarEffectとSemVarBenchというベンチマークを用いて,テキスト・画像合成における入力のセマンティックな変化と出力の因果性を評価する。
本研究は,T2I合成コミュニティによるヒューマンインストラクション理解の探索を促進する効果的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2024-10-14T08:45:35Z) - Localizing Factual Inconsistencies in Attributable Text Generation [91.981439746404]
本稿では,帰属可能なテキスト生成における事実の不整合をローカライズするための新しい形式であるQASemConsistencyを紹介する。
まず,人間のアノテーションに対するQASemConsistency法の有効性を示す。
そこで我々は,局所的な事実の不整合を自動的に検出するいくつかの手法を実装した。
論文 参考訳(メタデータ) (2024-10-09T22:53:48Z) - Training Language Models on Synthetic Edit Sequences Improves Code Synthesis [33.13471417703669]
大規模言語モデル(LLM)は、プログラムを単一のパスで自動ソースで合成する。
我々はLintSeqと呼ばれる合成データ生成アルゴリズムを開発し、高品質なコード編集データを生成する。
編集シーケンスを微調整したモデルがベースライン合成よりも多様なプログラムを生成することを示す。
論文 参考訳(メタデータ) (2024-10-03T17:57:22Z) - Fix the Tests: Augmenting LLMs to Repair Test Cases with Static Collector and Neural Reranker [9.428021853841296]
本稿では, TROCtxsの精密かつ高精度な構築により, 旧来の検査ケースを自動的に修復する新しい手法であるSynTERを提案する。
構築されたTROCtxの増強により、幻覚は57.1%減少する。
論文 参考訳(メタデータ) (2024-07-04T04:24:43Z) - Nearest Neighbor Speculative Decoding for LLM Generation and Attribution [87.3259169631789]
Nearest Speculative Decoding (NEST)は、任意の長さの実世界のテキストスパンをLM世代に組み込むことができ、それらのソースへの属性を提供する。
NESTは、様々な知識集約タスクにおいて、基本LMの生成品質と帰属率を大幅に向上させる。
さらに、NESTは、Llama-2-Chat 70Bに適用した場合の推論時間において1.8倍のスピードアップを達成することにより、生成速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-05-29T17:55:03Z) - SynthesizRR: Generating Diverse Datasets with Retrieval Augmentation [55.2480439325792]
トピック分類,感情分析,トーン検出,ユーモアの6つのデータセットの合成について検討した。
その結果,SynthesizRRは語彙や意味の多様性,人文との類似性,蒸留性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-16T12:22:41Z) - LLMorpheus: Mutation Testing using Large Language Models [7.312170216336085]
本稿では,ソースコードに挿入されたプレースホルダーを置き換えることで,LLM(Large Language Model)に変異を提案する手法を提案する。
LLMorpheusは、最先端の突然変異検査ツールであるStrykerJSでは生成できない既存のバグに似た変異を生成できる。
論文 参考訳(メタデータ) (2024-04-15T17:25:14Z) - MRL Parsing Without Tears: The Case of Hebrew [14.104766026682384]
形態的にリッチな言語(MRL)では、トークンごとに複数の語彙単位を識別する必要があるが、既存のシステムはレイテンシとセットアップの複雑さに悩まされている。
決定は、専門家の分類器によって、各ユニットが1つの特定のタスクに特化して行われる。
この信じられないほど高速なアプローチは、HebrewのPOSタグ付けと依存性解析に新しいSOTAを設定し、他のHebrewタスクではほぼSOTAのパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:54:33Z) - Contrastive Instruction Tuning [61.97704869248903]
意味論的に等価な命令-インスタンスペア間の類似性を最大化するために、コントラスト命令チューニングを提案する。
PromptBenchベンチマークの実験によると、CoINはLLMの頑健さを一貫して改善し、文字、単語、文、意味のレベルを平均して2.5%の精度で変化させる。
論文 参考訳(メタデータ) (2024-02-17T00:09:32Z) - Paraformer: Fast and Accurate Parallel Transformer for
Non-autoregressive End-to-End Speech Recognition [62.83832841523525]
そこで我々はParaformerと呼ばれる高速かつ高精度な並列トランスを提案する。
出力トークンの数を正確に予測し、隠れた変数を抽出する。
10倍以上のスピードアップで、最先端のARトランスフォーマーに匹敵するパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2022-06-16T17:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。