論文の概要: Hardening the OSv Unikernel with Efficient Address Randomization: Design and Performance Evaluation
- arxiv url: http://arxiv.org/abs/2602.11445v1
- Date: Wed, 11 Feb 2026 23:47:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.579896
- Title: Hardening the OSv Unikernel with Efficient Address Randomization: Design and Performance Evaluation
- Title(参考訳): アドレスランダム化によるOSvユニカーネルの強化:設計と性能評価
- Authors: Alex Wollman, John Hastings,
- Abstract要約: 本研究は,アプリケーションベースとスレッドスタック領域をランダムにすることで,OSvにASLRスタイルの多様性を導入する。
この実装はOSvの軽量設計目標を維持しながら、最小限の複雑さを増す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unikernels are single-purpose library operating systems that run the kernel and application in one address space, but often omit security mitigations such as address space layout randomization (ASLR). In OSv, boot, program loading, and thread creation select largely deterministic addresses, leading to near-identical layouts across instances and more repeatable exploitation. To reduce layout predictability, this research introduces ASLR-style diversity into OSv by randomizing the application base and thread stack regions through targeted changes to core memory-management and loading routines. The implementation adds minimal complexity while preserving OSv's lightweight design goals. Evaluation against an unmodified baseline finds comparable boot time, application runtime, and memory usage. Analysis indicates that the generated addresses exhibit a uniform distribution. These results show that layout-randomization defenses can be efficiently and effectively integrated into OSv unikernels, improving resistance to reliable exploitation.
- Abstract(参考訳): ユニカーネル(Unikernels)は、カーネルとアプリケーションを1つのアドレス空間で実行する単一目的のライブラリオペレーティングシステムであるが、アドレス空間レイアウトランダム化(ASLR)のようなセキュリティ対策を省略することが多い。
OSvでは、ブート、プログラムローディング、スレッド生成が、主に決定論的アドレスを選択し、インスタンス間のほぼ同一のレイアウトと、より繰り返し可能なエクスプロイトをもたらす。
本研究は,OSvにASLRスタイルの多様性を導入し,コアメモリ管理とロードルーチンのターゲット変更によるアプリケーションベースとスレッドスタック領域のランダム化を行う。
この実装はOSvの軽量設計目標を維持しながら、最小限の複雑さを増す。
修正されていないベースラインに対する評価は、起動時間、アプリケーションランタイム、メモリ使用量に匹敵する。
解析は、生成されたアドレスが一様分布を示すことを示している。
これらの結果から,OSvユニカーネルにレイアウトランダム化防御を効果的かつ効果的に統合し,信頼性の高いエクスプロイトに対する耐性を向上させることが示唆された。
関連論文リスト
- AdaSpot: Spend Resolution Where It Matters for Precise Event Spotting [59.31340724915079]
イベントスポッティングは、スポーツ分析、ロボティクス、自律システムにおけるアプリケーションにとって重要なタスクである。
bfAdaSpotは厳格な評価基準の下で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-02-25T16:24:48Z) - Breaking the Grid: Distance-Guided Reinforcement Learning in Large Discrete and Hybrid Action Spaces [4.395837214164745]
距離誘導型強化学習(DGRL)を提案し,最大10$text20$アクションを持つ空間における効率的なRLを実現する。
定常および不規則に構造化された環境における最先端ベンチマークに対して,最大66%の性能向上を示す。
論文 参考訳(メタデータ) (2026-02-09T13:05:07Z) - ReasAlign: Reasoning Enhanced Safety Alignment against Prompt Injection Attack [52.17935054046577]
本稿では、間接的インジェクション攻撃に対する安全性アライメントを改善するためのモデルレベルのソリューションであるReasAlignを提案する。
ReasAlignには、ユーザクエリの分析、競合する命令の検出、ユーザの意図したタスクの継続性を維持するための構造化された推論ステップが組み込まれている。
論文 参考訳(メタデータ) (2026-01-15T08:23:38Z) - Optimizing Resource Allocation for Geographically-Distributed Inference by Large Language Models [8.341777627286621]
大規模な言語モデルは、多くのAIタスクにおいて異常なパフォーマンスを示してきたが、ハイエンドGPUを必要とするため、トレーニング後にも使用するには高価である。
近年,PETALSと呼ばれる分散システムが開発され,複数のサーバにモデルブロックを分割し,ローエンドGPUをインターネット上に分散することで,LCMのデプロイ障壁を低くすることに成功した。
本稿では,分散LLM推論における資源配分問題に関する最初の体系的研究を行い,ブロック配置と要求ルーティングの2つの重要な決定に焦点をあてる。
論文 参考訳(メタデータ) (2025-12-26T06:13:59Z) - DynaAct: Large Language Model Reasoning with Dynamic Action Spaces [58.298135359318024]
コンパクトなアクション空間を自動構築する新しいフレームワークtextscDynaActを提案する。
当社のアプローチは,大幅な遅延を発生させることなく,効率的な推論を維持しながら,全体的なパフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2025-11-11T09:47:13Z) - The Curious Case of In-Training Compression of State Space Models [49.819321766705514]
ステートスペースモデル(SSM)は、並列化可能なトレーニングと高速推論の両方を提供する。
鍵となる設計上の課題は、表現力の最大化と計算負荷の制限の間の適切なバランスを打つことだ。
我々のアプローチである textscCompreSSM はリニアリカレントユニットのような線形時間不変SSMに適用されるが、選択モデルにも拡張可能である。
論文 参考訳(メタデータ) (2025-10-03T09:02:33Z) - Futureproof Static Memory Planning [7.031511274524772]
ディープニューラルネットワークの静的アーキテクチャと組み合わせた"AIメモリウォール"は、動的ストレージ割り当てへの関心を再燃させた。
本稿では,100万インスタンスを対象とした低フラグメンテーション,高性能DSA実装であるIdeallocを提案する。
論文 参考訳(メタデータ) (2025-04-07T09:28:54Z) - Efficient Safety Alignment of Large Language Models via Preference Re-ranking and Representation-based Reward Modeling [84.00480999255628]
大規模言語モデル(LLM)の安全性アライメントのための強化学習アルゴリズムは,分散シフトの課題に直面している。
現在のアプローチでは、ターゲットポリシーからのオンラインサンプリングを通じてこの問題に対処するのが一般的である。
モデル固有の安全判断能力を活用して報酬信号を抽出する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-13T06:40:34Z) - Comprehensive Kernel Safety in the Spectre Era: Mitigations and Performance Evaluation (Extended Version) [2.0436753359071913]
レイアウトのランダム化は、メモリ分離を伴うシステムにおいて、同等の安全性を保証できることを示す。
実際には、投機的実行とサイドチャネルは、レイアウトのランダム化に対する脅威として認識される。
サイドチャネルと投機的実行を使用できる攻撃者に対しては,カーネルの安全性を回復できないことを示す。
論文 参考訳(メタデータ) (2024-11-27T07:06:28Z) - The Illusion of Randomness: An Empirical Analysis of Address Space Layout Randomization Implementations [4.939948478457799]
アドレス空間レイアウトランダム化の現実の実装は不完全であり、攻撃者が悪用できる弱点を負う。
この研究は、LinuxやWindowsを含む主要なデスクトッププラットフォームにおけるASLRの有効性を評価する。
我々は,Linux 5.18以降のライブラリのエントロピーの大幅なエントロピー削減と,攻撃者が利用複雑性を著しく低減するために活用できる相関パスの同定を行う。
論文 参考訳(メタデータ) (2024-08-27T14:46:04Z) - AcceleratedLiNGAM: Learning Causal DAGs at the speed of GPUs [57.12929098407975]
既存の因果探索法を効率的に並列化することにより,数千次元まで拡張可能であることを示す。
具体的には、DirectLiNGAMの因果順序付けサブプロデューサに着目し、GPUカーネルを実装して高速化する。
これにより、遺伝子介入による大規模遺伝子発現データに対する因果推論にDirectLiNGAMを適用することで、競争結果が得られる。
論文 参考訳(メタデータ) (2024-03-06T15:06:11Z) - Combating Mode Collapse in GANs via Manifold Entropy Estimation [70.06639443446545]
Generative Adversarial Networks (GAN) は、様々なタスクやアプリケーションにおいて魅力的な結果を示している。
GANのモード崩壊問題に対処するための新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-08-25T12:33:31Z) - ROME: Robustifying Memory-Efficient NAS via Topology Disentanglement and
Gradient Accumulation [106.04777600352743]
微分可能なアーキテクチャサーチ(DARTS)は、スーパーネット全体がメモリに格納されているため、メモリコストが大幅に低下する。
シングルパスのDARTSが登場し、各ステップでシングルパスのサブモデルのみを選択する。
メモリフレンドリーだが、計算コストも低い。
RObustifying Memory-Efficient NAS (ROME) と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-23T06:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。