論文の概要: Empowering WebAssembly with Thin Kernel Interfaces
- arxiv url: http://arxiv.org/abs/2312.03858v4
- Date: Thu, 27 Mar 2025 17:57:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:49:37.616571
- Title: Empowering WebAssembly with Thin Kernel Interfaces
- Title(参考訳): シンカーネルインターフェースによるWebAssemblyの強化
- Authors: Arjun Ramesh, Tianshu Huang, Ben L. Titzer, Anthony Rowe,
- Abstract要約: 本稿では,プロセス内サンドボックスを壊さずに,OSユーザ空間のsyscallを直接公開するWasmのカーネルインタフェースを提案する。
WASIのような既存のWasm用の機能ベースのAPIは、カーネルインターフェース上のWasmモジュールとして実装できる。
我々は,最新のWasmエンジンを拡張して,LinuxとZephyrという2つのカーネルに対して,この概念を実装した。
- 参考スコア(独自算出の注目度): 1.4133405185767076
- License:
- Abstract: Wasm is gaining popularity outside the Web as a well-specified low-level binary format with ISA portability, low memory footprint and polyglot targetability, enabling efficient in-process sandboxing of untrusted code. Despite these advantages, Wasm adoption for new domains is often hindered by the lack of many standard system interfaces which precludes reusability of existing software and slows ecosystem growth. This paper proposes thin kernel interfaces for Wasm, which directly expose OS userspace syscalls without breaking intra-process sandboxing, enabling a new class of virtualization with Wasm as a universal binary format. By virtualizing the bottom layer of userspace, kernel interfaces enable effortless application ISA portability, compiler backend reusability, and armor programs with Wasm's built-in control flow integrity and arbitrary code execution protection. Furthermore, existing capability-based APIs for Wasm, such as WASI, can be implemented as a Wasm module over kernel interfaces, improving reuse, robustness, and portability through better layering. We present an implementation of this concept for two kernels -- Linux and Zephyr -- by extending a modern Wasm engine and evaluate our system's performance on a number of sophisticated applications which can run for the first time on Wasm.
- Abstract(参考訳): Wasmは、ISAポータビリティ、メモリフットプリントの低さ、ポリグロットのターゲット性を備えた、明確に定義された低レベルのバイナリフォーマットとしてWeb外で人気を集めており、信頼できないコードの効率的なプロセス内サンドボックス化を可能にしている。
これらの利点にもかかわらず、Wasmの新しいドメインの採用は、既存のソフトウェアの再使用を妨げ、エコシステムの成長を遅らせる多くの標準的なシステムインターフェースの欠如によって、しばしば妨げられている。
本稿では,プロセス内サンドボックスを壊さずにOSユーザ空間のsyscallを直接公開するWasm用のシンカーネルインタフェースを提案する。
ユーザ空間の下位層を仮想化することにより、カーネルインターフェースは、懸命なアプリケーションISAポータビリティ、コンパイラバックエンドの再利用性、Wasmに組み込まれた制御フローの整合性と任意のコード実行保護を備えた装甲プログラムを可能にする。
さらに、WASIのような既存のWasm用の機能ベースのAPIは、カーネルインターフェース上のWasmモジュールとして実装でき、再利用性、堅牢性、ポータビリティを改善できる。
本稿では,LinuxとZephyrという2つのカーネルに対して,最新のWasmエンジンを拡張し,Wasm上で動作可能な多数の高度なアプリケーション上でのシステム性能を評価することで,この概念の実装を提案する。
関連論文リスト
- WebLLM: A High-Performance In-Browser LLM Inference Engine [9.771248136952039]
WebLLMはオープンソースのフレームワークで、Webブラウザで高性能なLLM推論を可能にする。
WebLLMは、Webアプリケーションにシームレスに統合するためのOpenAIスタイルのAPIを提供する。
WebLLMは、同じデバイス上で80%のネイティブパフォーマンスを維持することができる。
論文 参考訳(メタデータ) (2024-12-20T11:24:13Z) - Interaction2Code: Benchmarking MLLM-based Interactive Webpage Code Generation from Interactive Prototyping [57.024913536420264]
MLLM(Multimodal Large Language Models)は、設計からコードへのタスクにおいて顕著な性能を示す。
本稿では,インタラクティブなWebページを生成する上で,MLLMを初めて体系的に研究する。
論文 参考訳(メタデータ) (2024-11-05T17:40:03Z) - Comparing Security and Efficiency of WebAssembly and Linux Containers in Kubernetes Cloud Computing [0.0]
本研究では、コンテナを使用したクラウドコンピューティングにおいて、信頼できないコードを実行するための、Linuxコンテナのよりセキュアで効率的な代替手段としてのWebAssemblyの可能性について検討する。
セキュリティ分析では、信頼できないコードを実行する場合、LinuxコンテナとWebAssemblyの両方がアタックサーフェスを持っていることが示されている。
論文 参考訳(メタデータ) (2024-11-02T23:35:19Z) - Cyber-physical WebAssembly: Secure Hardware Interfaces and Pluggable Drivers [3.3267678659285913]
本研究は、I2CとUSBとのハードウェアインタラクションを可能にするWASI提案と概念実証実装を提案する。
これはWebAssembly内でデバイスドライバを実行することで実現される。
概念実証の徹底的な評価は、WASI-USBは、ネイティブOSのUSB APIと比較して、少なくとも8%のオーバーヘッドを最小化していることを示している。
論文 参考訳(メタデータ) (2024-10-30T11:21:22Z) - Securing Stack Smashing Protection in WebAssembly Applications [0.0]
これまでの研究によると、WebAssemblyは効果的な保護メカニズムが欠如しているため、バッファオーバーフローに対して脆弱である。
WebAssemblyスタンドアロンランタイムにおけるStack Smashing Protection(SSP)の実装を評価し、現在の実装における2つの弱点を明らかにする。
論文 参考訳(メタデータ) (2024-10-23T14:41:59Z) - Flash-VStream: Memory-Based Real-Time Understanding for Long Video Streams [78.72965584414368]
人間の記憶機構をシミュレートしたビデオ言語モデルFlash-VStreamを提案する。
既存のモデルと比較して、Flash-VStreamは遅延推論とVRAM消費の大幅な削減を実現している。
本稿では,オンライン動画ストリーミング理解に特化して設計された質問応答ベンチマークであるVStream-QAを提案する。
論文 参考訳(メタデータ) (2024-06-12T11:07:55Z) - StackSight: Unveiling WebAssembly through Large Language Models and Neurosymbolic Chain-of-Thought Decompilation [2.1094456929188676]
StackSightは静的解析アルゴリズムを通じて仮想スタックの変更を視覚化し、追跡し、チェーン・オブ・シークレット・プロンプトを適用する。
評価結果は、StackSightがWebAssemblyの逆コンパイルを大幅に改善していることを示している。
またユーザ調査では、StackSightが生成したコードスニペットの勝利率が大幅に高く、コードのセマンティクスをよりよく把握できることを示した。
論文 参考訳(メタデータ) (2024-06-07T01:08:17Z) - OSWorld: Benchmarking Multimodal Agents for Open-Ended Tasks in Real Computer Environments [87.41051677852231]
マルチモーダルエージェントのための,第1世代のスケーラブルな実コンピュータ環境であるOSWorldを紹介する。
OSWorldは、オープンエンドのコンピュータタスクを評価する統合されたコンピュータ環境として機能する。
オープンドメインの実際のWebおよびデスクトップアプリケーション、OSファイルI/O、複数のアプリケーションにまたがる369のコンピュータタスクのベンチマークを作成します。
論文 参考訳(メタデータ) (2024-04-11T17:56:05Z) - VisualWebBench: How Far Have Multimodal LLMs Evolved in Web Page Understanding and Grounding? [115.60866817774641]
MLLM(Multimodal Large Language Model)は、Web関連のタスクにおいて有望であることを示す。
Webドメインにおけるパフォーマンス評価は、包括的なベンチマークが欠如しているため、依然として課題である。
benchは、さまざまなWebタスクにわたるMLLMの機能を評価するために設計されたマルチモーダルベンチマークである。
論文 参考訳(メタデータ) (2024-04-09T02:29:39Z) - InterCode: Standardizing and Benchmarking Interactive Coding with
Execution Feedback [50.725076393314964]
標準的な強化学習環境として,インタラクティブコーディングの軽量でフレキシブルで使いやすいフレームワークであるInterCodeを紹介した。
私たちのフレームワークは、言語とプラットフォームに依存しない、自己完結型のDocker環境を使用して、安全で再現可能な実行を提供します。
我々は、異なるプロンプト戦略で構成された複数の最先端LLMを評価することにより、InterCodeの生存性をテストベッドとして示す。
論文 参考訳(メタデータ) (2023-06-26T17:59:50Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。