論文の概要: Debugging WebAssembly? Put some Whamm on it!
- arxiv url: http://arxiv.org/abs/2504.20192v1
- Date: Mon, 28 Apr 2025 18:52:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.640508
- Title: Debugging WebAssembly? Put some Whamm on it!
- Title(参考訳): WebAssemblyのデバッグ? "Whamm on it!
- Authors: Elizabeth Gilbert, Matthew Schneider, Zixi An, Suhas Thalanki, Wavid Bowman, Alexander Bai, Ben L. Titzer, Heather Miller,
- Abstract要約: We present Whamm, a declarative instrumentation DSL for WebAssembly。
Whammは、1)ツールの断片化、2)汎用フレームワークの禁制的なインスツルメンテーションオーバーヘッド、3)低レベルのハイパフォーマンスメカニズムの調整という3つの問題を解決する。
- 参考スコア(独自算出の注目度): 35.842707498062765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Debugging and monitoring programs are integral to engineering and deploying software. Dynamic analyses monitor applications through source code or IR injection, machine code or bytecode rewriting, and virtual machine or direct hardware support. While these techniques are viable within their respective domains, common tooling across techniques is rare, leading to fragmentation of skills, duplicated efforts, and inconsistent feature support. We address this problem in the WebAssembly ecosystem with Whamm, a declarative instrumentation DSL for WebAssembly that abstracts above the instrumentation strategy, leveraging bytecode rewriting and engine support as available. Whamm solves three problems: 1) tooling fragmentation, 2) prohibitive instrumentation overhead of general-purpose frameworks, and 3) tedium of tailoring low-level high-performance mechanisms. Whamm provides fully-programmable instrumentation with declarative match rules, static and dynamic predication, automatic state reporting, and user library support, while achieving high performance through compiler and engine optimizations. At the back end, Whamm provides instrumentation to a Wasm engine as Wasm code, reusing existing engine optimizations and unlocking new ones, most notably intrinsification, to minimize overhead. In particular, explicitly requesting program state in match rules, rather than reflection, enables the engine to efficiently bundle arguments and even inline compiled probe logic. Whamm streamlines the tooling effort, as its bytecode-rewriting target can run instrumented programs everywhere, lowering fragmentation and advancing the state of the art for engine support. We evaluate Whamm with case studies of non-trivial monitors and show it is expressive, powerful, and efficient.
- Abstract(参考訳): デバッグとモニタリングのプログラムは、ソフトウェアの設計とデプロイに不可欠である。
動的解析は、ソースコードまたはIR注入、マシンコードまたはバイトコード書き換え、仮想マシンまたは直接ハードウェアサポートを通じてアプリケーションを監視する。
これらのテクニックはそれぞれのドメイン内で実現可能だが、テクニック間の共通ツールはまれであり、スキルの断片化、重複した努力、一貫性のない機能サポートにつながっている。
WhammはWebAssembly用の宣言型インスツルメンテーションDSLで、インスツルメンテーション戦略を抽象化し、バイトコードの書き換えとエンジンサポートを可能な限り活用しています。
Whammは3つの問題を解決する。
1) 工具の断片化
2 汎用的枠組みの禁止的実施オーバーヘッド及び
3)低レベル高性能機構の調整方法。
Whammは宣言型マッチルール、静的および動的述語、自動状態レポート、ユーザライブラリのサポートを備えた完全にプログラム可能なインスツルメンテーションを提供し、コンパイラとエンジンの最適化によって高いパフォーマンスを実現している。
バックエンドでは、WhammはWasmのコードとしてWasmエンジンにインスツルメンテーションを提供し、既存のエンジンの最適化を再利用し、新しいエンジン(特に内在化)をアンロックすることでオーバーヘッドを最小化している。
特に、プログラム状態をリフレクションではなくマッチルールで明示的に要求することで、エンジンは引数やインラインでコンパイルされたプローブロジックを効率的にバンドルできる。
Whammは、バイトコード書き直しターゲットがあらゆる場所でインスツルメンテーションプログラムを実行でき、断片化を減らし、エンジンサポートの最先端化を進めるため、ツーリングの取り組みを合理化している。
我々は,非自明なモニタのケーススタディを用いてWhammを評価し,表現的,強力,効率的であることを示す。
関連論文リスト
- AttentionEngine: A Versatile Framework for Efficient Attention Mechanisms on Diverse Hardware Platforms [22.437113145540337]
我々は、異種ハードウェアバックエンド間のアテンションメカニズムの最適化を効率化するために設計された包括的フレームワークであるAttentionEngineを紹介した。
注意計算をカスタマイズ可能なコンポーネントでモジュール操作に分解することで、AttentionEngineは多様なアルゴリズム要求への柔軟な適応を可能にする。
論文 参考訳(メタデータ) (2025-02-21T10:06:41Z) - ReF Decompile: Relabeling and Function Call Enhanced Decompile [50.86228893636785]
逆コンパイルの目標は、コンパイルされた低レベルコード(アセンブリコードなど)を高レベルプログラミング言語に変換することである。
このタスクは、脆弱性識別、マルウェア分析、レガシーソフトウェアマイグレーションなど、さまざまなリバースエンジニアリングアプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-02-17T12:38:57Z) - ToolCoder: A Systematic Code-Empowered Tool Learning Framework for Large Language Models [49.04652315815501]
ツール学習は、大規模な言語モデル(LLM)にとって、外部ツールとのインタラクションを通じて、複雑な現実世界のタスクを解決する重要な機能として登場した。
本稿では,ツール学習をコード生成タスクとして再編成する新しいフレームワークであるToolCoderを提案する。
論文 参考訳(メタデータ) (2025-02-17T03:42:28Z) - SeeWasm: An Efficient and Fully-Functional Symbolic Execution Engine for WebAssembly Binaries [10.836842574894161]
WebAssembly(Wasm)は40以上のハイレベルプログラミング言語からコンパイルできる。
Wasmバイナリの脆弱性は、機密データ漏洩を引き起こし、ホスティング環境を脅かす可能性がある。
それらを特定するために、その音質と、悪用を自動生成する能力により、象徴的実行が広く採用されている。
論文 参考訳(メタデータ) (2024-08-16T05:42:30Z) - ControlLLM: Augment Language Models with Tools by Searching on Graphs [97.62758830255002]
我々は,大規模言語モデル(LLM)が実世界のタスクを解くためのマルチモーダルツールを利用できる新しいフレームワークであるControlLLMを提案する。
フレームワークは,(1)複雑なタスクを明確なサブタスクに分割し,入力と出力を適切に定義したサブタスクに分解するtextittask Decomposer,(2)構築済みのツールグラフ上で最適なソリューションパスを探索する textitThoughts-on-Graph(ToG)パラダイム,(3)ソリューションパスを解釈して実行するリッチなツールボックスを備えた textitexecution Engine,の3つの主要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-26T21:57:21Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - ART: Automatic multi-step reasoning and tool-use for large language
models [105.57550426609396]
大規模言語モデル(LLM)は、数秒とゼロショットの設定で複雑な推論を行うことができる。
各推論ステップは、コアLLM機能を超えて計算をサポートする外部ツールに依存することができる。
プログラムとして中間推論ステップを自動生成するために凍結LDMを使用するフレームワークであるART(Automatic Reasoning and Tool-use)を導入する。
論文 参考訳(メタデータ) (2023-03-16T01:04:45Z) - Virtualization of Tiny Embedded Systems with a robust real-time capable
and extensible Stack Virtual Machine REXAVM supporting Material-integrated
Intelligent Systems and Tiny Machine Learning [0.0]
本稿では,動作に等価なソフトウェアとハードウェア(FPGA)の実装において,提案するVMアーキテクチャの適合性を示し,評価する。
全体的なアーキテクチャアプローチでは、VMは特にデジタル信号処理と小さな機械学習に対処する。
論文 参考訳(メタデータ) (2023-02-17T17:13:35Z) - ManiSkill2: A Unified Benchmark for Generalizable Manipulation Skills [24.150758623016195]
我々は、一般化可能な操作スキルのための次世代のSAPIEN ManiSkillベンチマークであるManiSkill2を紹介する。
ManiSkill2には、2000以上のオブジェクトモデルと4M以上のデモフレームを備えた20の操作タスクファミリが含まれている。
幅広いアルゴリズムをサポートする統一インターフェースと評価プロトコルを定義する。
高速な視覚入力学習アルゴリズムにより、CNNベースのポリシーでサンプルを約2000 FPSで収集することができる。
論文 参考訳(メタデータ) (2023-02-09T14:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。