論文の概要: Compartmentalization-Aware Automated Program Repair
- arxiv url: http://arxiv.org/abs/2603.09544v1
- Date: Tue, 10 Mar 2026 11:55:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.262416
- Title: Compartmentalization-Aware Automated Program Repair
- Title(参考訳): 比較化対応型自動プログラム修復
- Authors: Jia Hu, Youcheng Sun, Pierre Olivier,
- Abstract要約: 本稿では,大規模言語モデル (LLM) がクロスコンパートメントインタフェースの確保に有効であることを示す。
本稿では,インターフェースの安全性を補完する新しいAPRフレームワークの設計,実装,および初期の成果について述べる。
- 参考スコア(独自算出の注目度): 11.190237609876498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software compartmentalization breaks down an application into compartments isolated from each other: an attacker taking over a compartment will be confined to it, limiting the damage they can cause to the rest of the application. Despite the security promises of this approach, recent studies have shown that most existing compartmentalized software is plagued by vulnerabilities at cross-compartment interfaces, allowing an attacker taking over a compartment to escape its confinement and negate the security guarantees expected from compartmentalization. In that context, securing cross-compartment interfaces is notoriously difficult and engineering-intensive. In light of recent advances in Automated Program Repair (APR), notably through the use of Large Language Models (LLMs), this paper presents a work in progress investigating the suitability of LLM-based APR at securing cross-compartment interfaces as automatically as possible. We observe that existing APR approaches and general purpose/code-centric LLMs used as is are unfit for this task, and present the design, implementation, and early results of a new APR framework dedicated to compartment interface safety. The framework integrates into a feedback loop 1) a specialized fuzzer uncovering cross-compartment interface vulnerabilities; 2) a patch generation component bridging the lack of compartmentalization awareness of existing LLMs with a series of analysis techniques; and 3) a patch validation component assessing the effectiveness of generated vulnerability fixes. We validate our framework over a sample interface vulnerability, comparing it to a naive use of general-purpose LLMs, and discuss future research avenues.
- Abstract(参考訳): ソフトウェアコンパートナライゼーションは、アプリケーションを互いに分離されたコンパートメントに分解する。 コンパートメントを乗っ取るアタッカーは、そのコンパートメントに制限され、アプリケーションの他の部分に対するダメージを制限する。
このアプローチのセキュリティの約束にもかかわらず、最近の研究では、ほとんどの既存のコンパートナライズされたソフトウェアは、クロスコンパートメントインターフェースの脆弱性に悩まされており、アタッカーがそのコンパートメントを乗っ取り、そのコンパートナライズによって期待されるセキュリティ保証を無効にすることができる。
そのような状況下では、クロスコンパートメントインターフェースの確保は、非常に難しく、エンジニアリングに重きを置いている。
近年のAPR(Automated Program repair)の進歩,特にLarge Language Models (LLMs) の活用を踏まえて,LLMベースのAPRによるクロスコンパートメントインタフェースの安全性を可能な限り確保するための研究が進行中である。
我々は、既存のAPRアプローチと、このタスクに適さない汎用/コード中心のLLMを観察し、インターフェース安全性を補完する新しいAPRフレームワークの設計、実装、および初期の結果を示す。
フレームワークはフィードバックループに統合される
1) クロスコンパートメントインターフェースの脆弱性を明らかにする特殊なファズー
2 既存のLCMの区画化意識の欠如を一連の分析手法でブリッジするパッチ生成部品
3) 生成された脆弱性修正の有効性を評価するパッチ検証コンポーネント。
我々は,このフレームワークをサンプルインタフェースの脆弱性に対して検証し,汎用LLMの簡単な使用法と比較し,今後の研究方法について議論する。
関連論文リスト
- Leveraging the Power of Ensemble Learning for Secure Low Altitude Economy [64.39232788946173]
低高度経済(LAE)は社会福祉の強化と経済成長の推進に大きく貢献している。
本稿では,セキュアなLAEのためのアンサンブル学習,研究の焦点,解決策,ケーススタディについて検討する。
論文 参考訳(メタデータ) (2026-02-07T23:15:58Z) - RealSec-bench: A Benchmark for Evaluating Secure Code Generation in Real-World Repositories [58.32028251925354]
LLM(Large Language Models)は、コード生成において顕著な能力を示しているが、セキュアなコードを生成する能力は依然として重要で、未調査の領域である。
我々はRealSec-benchを紹介します。RealSec-benchは、現実世界の高リスクなJavaリポジトリから慎重に構築されたセキュアなコード生成のための新しいベンチマークです。
論文 参考訳(メタデータ) (2026-01-30T08:29:01Z) - ORCA -- An Automated Threat Analysis Pipeline for O-RAN Continuous Development [57.61878484176942]
Open-Radio Access Network (O-RAN)は、多くのソフトウェアコンポーネントをクラウドのようなデプロイメントに統合し、これまで考えられていなかったセキュリティ脅威に無線アクセスネットワークを開放する。
現在の脆弱性評価の実践は、しばしば手動、労働集約、主観的な調査に依存しており、脅威分析の不整合につながる。
人間の介入や関連するバイアスを最小限に抑えるために,自然言語処理(NLP)を活用する自動パイプラインを提案する。
論文 参考訳(メタデータ) (2026-01-20T07:31:59Z) - Secure Tug-of-War (SecTOW): Iterative Defense-Attack Training with Reinforcement Learning for Multimodal Model Security [63.41350337821108]
マルチモーダル大規模言語モデル(MLLM)のセキュリティを高めるために,Secure Tug-of-War(SecTOW)を提案する。
SecTOWは2つのモジュールで構成される:ディフェンダーと補助攻撃者。どちらも強化学習(GRPO)を使用して反復的に訓練される。
SecTOWは、一般的な性能を維持しながら、セキュリティを大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-07-29T17:39:48Z) - A Case Study of LLM for Automated Vulnerability Repair: Assessing Impact of Reasoning and Patch Validation Feedback [7.742213291781287]
提案するVRpilotは,推論とパッチ検証フィードバックに基づく脆弱性修復手法である。
以上の結果から,VRpilotはCとJavaのベースライン技術よりも平均14%と7.6%の正確なパッチを生成することがわかった。
論文 参考訳(メタデータ) (2024-05-24T16:29:48Z) - Benchmarking and Defending Against Indirect Prompt Injection Attacks on Large Language Models [79.0183835295533]
我々は,このような脆弱性のリスクを評価するために,BIPIAと呼ばれる間接的インジェクション攻撃のための最初のベンチマークを導入した。
我々の分析では、LLMが情報コンテキストと動作可能な命令を区別できないことと、外部コンテンツ内での命令の実行を回避できないことの2つの主要な要因を同定した。
ブラックボックスとホワイトボックスという2つの新しい防御機構と、これらの脆弱性に対処するための明確なリマインダーを提案する。
論文 参考訳(メタデータ) (2023-12-21T01:08:39Z) - Just-in-Time Detection of Silent Security Patches [7.840762542485285]
セキュリティパッチは黙秘される可能性がある。つまり、CVEのような包括的なアドバイザリを常に備えているわけではない。
この透明性の欠如により、ユーザーは利用可能なセキュリティアップデートを気にせず、攻撃者が未パッチの脆弱性を悪用する十分な機会を提供する。
本稿では,大規模言語モデル(LLM)を活用して,生成されたコード変更説明を用いてパッチ情報を拡張することを提案する。
論文 参考訳(メタデータ) (2023-12-02T22:53:26Z) - On the Evaluation of User Privacy in Deep Neural Networks using Timing
Side Channel [14.350301915592027]
我々は,Deep Learning (DL) の実装において,新たなデータ依存型タイミング側チャネルリーク(クラスリーク)を特定し,報告する。
ユーザ特権とハードラベルのブラックボックスアクセスを持つ敵が、クラスリークを悪用できる、実用的な推論時攻撃を実証する。
我々は,クラスリークを緩和する定時分岐操作を行うことにより,実装が容易な対策を開発する。
論文 参考訳(メタデータ) (2022-08-01T19:38:16Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。