論文の概要: Montage: A Neural Network Language Model-Guided JavaScript Engine Fuzzer
- arxiv url: http://arxiv.org/abs/2001.04107v2
- Date: Tue, 14 Jan 2020 08:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 23:51:05.519609
- Title: Montage: A Neural Network Language Model-Guided JavaScript Engine Fuzzer
- Title(参考訳): Montage: ニューラルネットワーク言語モデルによるJavaScriptエンジンファズー
- Authors: Suyoung Lee, HyungSeok Han, Sang Kil Cha, Sooel Son
- Abstract要約: 私たちは、JSエンジンの脆弱性を見つけるための最初のNNLM誘導ファザであるMontageを紹介します。
Montage氏は最新のJSエンジンで3つのCVEを含む37の現実世界のバグを発見した。
- 参考スコア(独自算出の注目度): 18.908548472588976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: JavaScript (JS) engine vulnerabilities pose significant security threats
affecting billions of web browsers. While fuzzing is a prevalent technique for
finding such vulnerabilities, there have been few studies that leverage the
recent advances in neural network language models (NNLMs). In this paper, we
present Montage, the first NNLM-guided fuzzer for finding JS engine
vulnerabilities. The key aspect of our technique is to transform a JS abstract
syntax tree (AST) into a sequence of AST subtrees that can directly train
prevailing NNLMs. We demonstrate that Montage is capable of generating valid JS
tests, and show that it outperforms previous studies in terms of finding
vulnerabilities. Montage found 37 real-world bugs, including three CVEs, in the
latest JS engines, demonstrating its efficacy in finding JS engine bugs.
- Abstract(参考訳): JavaScript(JS)エンジンの脆弱性は、数十億のWebブラウザに重大なセキュリティ脅威をもたらす。
ファジングはそのような脆弱性を見つけるための一般的なテクニックであるが、ニューラルネットワーク言語モデル(nnlms)の最近の進歩を利用する研究は少ない。
本稿では,JS エンジンの脆弱性を発見するための NNLM 誘導ファザである Montage を紹介する。
我々の技術の重要な側面は、JS抽象構文木(AST)を、一般的なNNLMを直接トレーニングできるASTサブツリーのシーケンスに変換することである。
montageが有効なjsテストを生成することができることを実証し、脆弱性発見の観点で以前の研究よりも優れていることを示す。
montage氏は最新のjsエンジンで3つのcveを含む37の現実世界のバグを発見し、jsエンジンのバグ発見の有効性を示した。
関連論文リスト
- CovRL: Fuzzing JavaScript Engines with Coverage-Guided Reinforcement
Learning for LLM-based Mutation [2.5864634852960444]
本稿では,大規模言語モデル(LLM)とカバレッジフィードバックからの強化学習を組み合わせた,CovRL(Coverage-guided Reinforcement Learning)と呼ばれる新しい手法を提案する。
CovRL-Fuzzは、39の既知の脆弱性と11のCVEを含む、最新のJavaScriptエンジンにおける48の実際のセキュリティ関連バグを特定している。
論文 参考訳(メタデータ) (2024-02-19T15:30:40Z) - SENet: Visual Detection of Online Social Engineering Attack Campaigns [3.858859576352153]
ソーシャルエンジニアリング(SE)は、ユーザのセキュリティとプライバシを侵害する可能性のあるアクションの実行をユーザを欺くことを目的としている。
SEShieldは、ブラウザ内でソーシャルエンジニアリング攻撃を検出するためのフレームワークである。
論文 参考訳(メタデータ) (2024-01-10T22:25:44Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Static Semantics Reconstruction for Enhancing JavaScript-WebAssembly
Multilingual Malware Detection [54.20064304133909]
WebAssemblyを使うと、攻撃者は言語間の相互運用でJavaScriptマルウェアの悪意のある機能を隠せる。
JavaScriptとWebAssembly間の複雑な相互運用とセマンティックな多様性のため、JavaScript-WebAssemblyマルチ言語マルウェア(JWMM)の検出は難しい。
本稿では,JWMMの静的検出を高速化する最初の手法であるJWBinderを紹介する。
論文 参考訳(メタデータ) (2023-10-26T10:59:45Z) - Reinforcement learning guided fuzz testing for a browser's HTML
rendering engine [0.9176056742068814]
本稿では,訓練されたテストケースジェネレータ深層学習モデルと二重深層Q-ネットワークを組み合わせた新しい手法を提案する。
DDQNはコードカバレッジ信号に基づいてテストケースの作成をガイドする。
提案手法は,Firefox HTMLレンダリングエンジンのジェネレータモデルのコードカバレッジ性能を最大18.5%向上させる。
論文 参考訳(メタデータ) (2023-07-27T00:31:02Z) - VillanDiffusion: A Unified Backdoor Attack Framework for Diffusion
Models [69.20464255450788]
拡散モデル(英: Diffusion Models, DM)は、可逆的ノイズ付加から可逆的腐敗過程を学習し、雑音を除去する手法である。
最近の研究では、基本的な無条件DMがバックドア注入に弱いことが示されている。
本稿では,DMのバックドア分析の現在の範囲を広げるために,統合されたバックドア攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-12T05:14:13Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Multi-context Attention Fusion Neural Network for Software Vulnerability
Identification [4.05739885420409]
ソースコードのセキュリティ脆弱性の共通カテゴリのいくつかを効率的に検出することを学ぶディープラーニングモデルを提案する。
モデルは、学習可能なパラメータの少ないコードセマンティクスの正確な理解を構築します。
提案したAIは、ベンチマークされたNIST SARDデータセットから特定のCWEに対して98.40%のF1スコアを達成する。
論文 参考訳(メタデータ) (2021-04-19T11:50:36Z) - Trojaning Language Models for Fun and Profit [53.45727748224679]
TROJAN-LMは、悪質に製作されたLMがホストNLPシステムを故障させる新しいタイプのトロイの木馬攻撃である。
セキュリティクリティカルなNLPタスクにおいて、3つの最先端のLMを実証的に研究することにより、TROJAN-LMが以下の特性を持つことを示す。
論文 参考訳(メタデータ) (2020-08-01T18:22:38Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。