論文の概要: DarthShader: Fuzzing WebGPU Shader Translators & Compilers
- arxiv url: http://arxiv.org/abs/2409.01824v1
- Date: Tue, 3 Sep 2024 12:06:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 01:47:58.119118
- Title: DarthShader: Fuzzing WebGPU Shader Translators & Compilers
- Title(参考訳): DarthShader: WebGPUシェーダのトランスレータとコンパイラの融合
- Authors: Lukas Bernhard, Nico Schiller, Moritz Schloegel, Nils Bars, Thorsten Holz,
- Abstract要約: より要求の多いWebアプリケーションを実行するための最近のトレンドは、WebGPU標準の採用につながっている。
信頼できないWebコンテンツは、伝統的にセキュリティではなくパフォーマンスのために最適化されたGPUスタックに渡される。
DarthShaderは、中間表現に基づくミュータと、より伝統的な抽象構文木を使用したものを組み合わせた最初の言語ファザである。
- 参考スコア(独自算出の注目度): 19.345967816562364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent trend towards running more demanding web applications, such as video games or client-side LLMs, in the browser has led to the adoption of the WebGPU standard that provides a cross-platform API exposing the GPU to websites. This opens up a new attack surface: Untrusted web content is passed through to the GPU stack, which traditionally has been optimized for performance instead of security. Worsening the problem, most of WebGPU cannot be run in the tightly sandboxed process that manages other web content, which eases the attacker's path to compromising the client machine. Contrasting its importance, WebGPU shader processing has received surprisingly little attention from the automated testing community. Part of the reason is that shader translators expect highly structured and statically typed input, which renders typical fuzzing mutations ineffective. Complicating testing further, shader translation consists of a complex multi-step compilation pipeline, each stage presenting unique requirements and challenges. In this paper, we propose DarthShader, the first language fuzzer that combines mutators based on an intermediate representation with those using a more traditional abstract syntax tree. The key idea is that the individual stages of the shader compilation pipeline are susceptible to different classes of faults, requiring entirely different mutation strategies for thorough testing. By fuzzing the full pipeline, we ensure that we maintain a realistic attacker model. In an empirical evaluation, we show that our method outperforms the state-of-the-art fuzzers regarding code coverage. Furthermore, an extensive ablation study validates our key design. DarthShader found a total of 39 software faults in all modern browsers -- Chrome, Firefox, and Safari -- that prior work missed. For 15 of them, the Chrome team assigned a CVE, acknowledging the impact of our results.
- Abstract(参考訳): ビデオゲームやクライアントサイドのLLMといったより要求の多いWebアプリケーションをブラウザで実行しようとする最近のトレンドは、WebGPU標準を採用して、GPUをWebサイトに公開するクロスプラットフォームAPIを提供している。
信頼できないWebコンテンツは、伝統的にセキュリティではなくパフォーマンスのために最適化されたGPUスタックに渡される。
さらに悪いことに、WebGPUの大部分は、他のWebコンテンツを管理するサンドボックスプロセスでは実行できません。
その重要性とは対照的に、WebGPUシェーダ処理は自動テストコミュニティから驚くほど注目を集めていない。
理由の1つは、シェーダートランスレータが高度に構造化され静的な入力を期待しているため、典型的なファジング突然変異は効果がない。
テストをさらに複雑にすることで、シェーダ変換は複雑なマルチステップコンパイルパイプラインで構成され、各ステージは独自の要件と課題を提示する。
本稿では,中間表現に基づくミュータと,より伝統的な抽象構文木を用いたミュータを組み合わせた最初の言語ファザであるDarthShaderを提案する。
キーとなる考え方は、シェーダコンパイルパイプラインの個々のステージは、さまざまな障害のクラスに影響を受けやすく、徹底的なテストのために全く異なる突然変異戦略を必要とすることである。
パイプライン全体をファジングすることで、現実的なアタッカーモデルを確実に維持できます。
経験的評価では,コードカバレッジに関する最先端のファジイザよりも優れていることを示す。
さらに、広範囲にわたるアブレーション研究は、我々のキーデザインを検証する。
DarthShader氏は、現在のすべてのブラウザ(Chrome、Firefox、Safari)で合計39のソフトウェア欠陥を発見した。
そのうち15人については、ChromeチームがCVEを割り当て、結果の影響を認めました。
関連論文リスト
- FuzzWiz -- Fuzzing Framework for Efficient Hardware Coverage [2.1626093085892144]
FuzzWizという自動ハードウェアファジリングフレームワークを作成しました。
RTL設計モジュールのパース、C/C++モデルへの変換、アサーション、リンク、ファジングによるジェネリックテストベンチの作成を含む。
ベンチマークの結果,従来のシミュレーション回帰手法の10倍の速度でカバー範囲の約90%を達成できた。
論文 参考訳(メタデータ) (2024-10-23T10:06:08Z) - Seamless Website Fingerprinting in Multiple Environments [4.226243782049956]
ウェブサイトのフィンガープリント(WF)攻撃は匿名接続で訪れたウェブサイトを識別する。
個々のWebページではなく,Webサイト全体を分類する,新たなアプローチを導入する。
我々の畳み込みニューラルネットワーク(CNN)は、TCPストリームのどの点からでもジッタと500個の連続パケットしか使用しない。
論文 参考訳(メタデータ) (2024-07-28T02:18:30Z) - AutoScraper: A Progressive Understanding Web Agent for Web Scraper Generation [54.17246674188208]
Webスクレイピングは、Webサイトからデータを抽出し、自動データ収集を可能にし、データ分析機能を強化し、手動のデータ入力作業を最小化する強力なテクニックである。
既存の手法では、ラッパーベースの手法は、新しいウェブサイトで直面する場合、適応性とスケーラビリティの制限に悩まされる。
本稿では,大規模言語モデル(LLM)を用いたWebスクレイパー生成のパラダイムを紹介し,多様なWeb環境をより効率的に処理できる2段階フレームワークであるAutoScraperを提案する。
論文 参考訳(メタデータ) (2024-04-19T09:59:44Z) - Whispering Pixels: Exploiting Uninitialized Register Accesses in Modern GPUs [6.1255640691846285]
我々は、Apple、NVIDIA、Qualcommの3つの主要ベンダーの製品に脆弱性があることを実証する。
この脆弱性は、不透明なスケジューリングとレジスタ再マッピングアルゴリズムのために、敵に固有の課題をもたらす。
我々は,畳み込みニューラルネットワーク(CNN)の中間データに対する情報漏洩攻撃を実装し,大規模言語モデル(LLM)の出力を漏洩・再構成する攻撃能力を示す。
論文 参考訳(メタデータ) (2024-01-16T23:36:48Z) - WebGPU-SPY: Finding Fingerprints in the Sandbox through GPU Cache Attacks [0.7400926717561453]
ウェブブラウザにおけるマイクロアーキテクチャアタックのための新しいアタックベクトルを提案する。
我々は、被害者の活動をスパイするGPUの計算スタックに対するキャッシュサイドチャネルアタックを開発する。
我々は、GPUベースのキャッシュ攻撃が、上位100のWebサイトの指紋認証において、90の精度を達成することを実証した。
論文 参考訳(メタデータ) (2024-01-09T04:21:43Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - Learning UI-to-Code Reverse Generator Using Visual Critic Without
Rendering [18.74127660489501]
本稿では,スクリーンショット処理を行うビジョンエンコーダと,コードを生成する言語デコーダからなる新しいビジョンコードトランス (ViCT) を提案する。
これらは事前訓練されたモデルによって構成されるが、2つのモダリティの調整にはエンドツーエンドの微調整が必要である。
ViCTはLLaMAのような大きなデコーダを使用する場合と同等のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2023-05-24T02:17:32Z) - TVTSv2: Learning Out-of-the-box Spatiotemporal Visual Representations at
Scale [59.01246141215051]
言語指導の観点から,その劣化要因を分析した。
本稿では,テキストエンコーダの一般化能力を維持するために,教師なし事前学習戦略を提案する。
最大10億のパラメータを持つTVTSv2と呼ばれる一連のモデルを作成します。
論文 参考訳(メタデータ) (2023-05-23T15:44:56Z) - Cramming: Training a Language Model on a Single GPU in One Day [64.18297923419627]
言語モデリングの最近のトレンドは、スケーリングによるパフォーマンス向上に焦点を当てている。
我々は,1つのコンシューマGPU上で1日間,マスク付き言語モデルを用いてゼロから完全に訓練されたトランスフォーマーベース言語モデルで達成可能なダウンストリーム性能について検討した。
この制約された設定であっても、大規模設定で観測されるスケーリングの法則に密接に従う性能を示す。
論文 参考訳(メタデータ) (2022-12-28T18:59:28Z) - Preprocessors Matter! Realistic Decision-Based Attacks on Machine
Learning Systems [56.64374584117259]
決定に基づく攻撃は、ハードラベルクエリのみを作成することによって、機械学習(ML)モデルに対する逆例を構築する。
我々は,(i)プリプロセッサをリバースエンジニアリングし,(ii)この抽出した情報を用いてエンド・ツー・エンド・システムを攻撃する手法を開発した。
我々のプリプロセッサ抽出法は数百のクエリしか必要とせず、我々のプリプロセッサ・アウェア・アタックはモデルのみを攻撃する場合と同じ効果を回復する。
論文 参考訳(メタデータ) (2022-10-07T03:10:34Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。