論文の概要: Large Language Models-Aided Program Debloating
- arxiv url: http://arxiv.org/abs/2503.08969v1
- Date: Wed, 12 Mar 2025 00:30:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:40:30.302009
- Title: Large Language Models-Aided Program Debloating
- Title(参考訳): 大規模言語モデルを用いたプログラムのデブロ化
- Authors: Bo Lin, Shangwen Wang, Yihao Qin, Liqian Chen, Xiaoguang Mao,
- Abstract要約: LEADERはLarge Language Models (LLM)によって強化されたプログラムのデブロ化フレームワークである
重要な機能を保持し、セキュリティ問題を減らすことでセキュリティを強化することで、機能とセキュリティのバランスをとる。
結果は、LEADERが機能とセキュリティにおいて最先端のツールであるCovAを上回っていることを示している。
- 参考スコア(独自算出の注目度): 5.011290848820237
- License:
- Abstract: As software grows in complexity to accommodate diverse features and platforms, software bloating has emerged as a significant challenge, adversely affecting performance and security. However, existing approaches inadequately address the dual objectives of debloating: maintaining functionality by preserving essential features and enhancing security by reducing security issues. Specifically, current software debloating techniques often rely on input-based analysis, using user inputs as proxies for the specifications of desired features. However, these approaches frequently overfit provided inputs, leading to functionality loss and potential security vulnerabilities. To address these limitations, we propose LEADER, a program debloating framework enhanced by Large Language Models (LLMs), which leverages their semantic understanding, generative capabilities, and decision-making strengths. LEADER mainly consists of two modules: (1) a documentation-guided test augmentation module designed to preserve functionality, which leverages LLMs to comprehend program documentation and generates sufficient tests to cover the desired features comprehensively, and (2) a multi-advisor-aided program debloating module that employs a neuro-symbolic pipeline to ensure that the security of the software can be perceived during debloating. This module combines debloating and security advisors for analysis and employs an LLM as a decision-maker to eliminate undesired code securely. Extensive evaluations on widely used benchmarks demonstrate the efficacy of LEADER. These results demonstrate that LEADER surpasses the state-of-the-art tool CovA in functionality and security. These results underscore the potential of LEADER to set a new standard in program debloating by effectively balancing functionality and security.
- Abstract(参考訳): 多様な機能やプラットフォームに対応するためにソフトウェアが複雑化するにつれ、ソフトウェア肥大は重要な課題として現れ、パフォーマンスとセキュリティに悪影響を及ぼしている。
しかし、既存のアプローチはデ肥大化という2つの目的に不適当に対処している: 機能を維持することによる機能維持と、セキュリティ上の問題を減らすことによるセキュリティ強化である。
特に、現在のソフトウェアデブロ手法は、しばしば入力に基づく分析に依存し、望ましい機能の仕様のプロキシとしてユーザ入力を使用する。
しかし、これらのアプローチはインプットを過剰に提供し、機能喪失と潜在的なセキュリティ脆弱性につながった。
これらの制約に対処するため,Large Language Models (LLM) によって強化されたプログラムデブロッキングフレームワークであるLEADERを提案する。
LEADERは主に2つのモジュールから構成される: (1) 機能を維持するために設計された文書化テスト拡張モジュール、; LLMを活用してプログラム文書を理解し、必要な機能を包括的にカバーするための十分なテストを生成する。
このモジュールはデブロとセキュリティアドバイザを組み合わせて分析し、LLMを意思決定者として使用して、望ましくないコードを安全に排除する。
広く使用されているベンチマークの大規模な評価は、LEADERの有効性を示している。
これらの結果は、LEADERが機能とセキュリティにおいて最先端のツールであるCovAを上回っていることを示している。
これらの結果は、機能とセキュリティを効果的にバランスさせることで、LEADERがプログラムのデブロ化において新しい標準を設定する可能性を強調している。
関連論文リスト
- BaxBench: Can LLMs Generate Correct and Secure Backends? [8.928756381808974]
大規模言語モデル(LLM)は、関数レベルで効率的にコードを生成し、コード編集を行い、アルゴリズムによるコーディングタスクを解決する。
完全な自動化を実現するためには、LLMは製品品質の自己完結型アプリケーションモジュールを生成する必要がある。
バックエンドアプリケーション生成のための392タスクからなる新しい評価ベンチマークであるBaxBenchを紹介する。
論文 参考訳(メタデータ) (2025-02-17T14:37:47Z) - Large Language Models and Code Security: A Systematic Literature Review [0.0]
大規模言語モデル(LLM)は、様々なプログラミングタスクを自動化する強力なツールとして登場した。
LLMはプログラマが知らない脆弱性を導入する可能性がある。
コードを解析する際には、明確な脆弱性を見逃したり、存在しない脆弱性を通知する可能性がある。
論文 参考訳(メタデータ) (2024-12-19T16:20:22Z) - VulnLLMEval: A Framework for Evaluating Large Language Models in Software Vulnerability Detection and Patching [0.9208007322096533]
大きな言語モデル(LLM)は、コード翻訳のようなタスクにおいて有望であることを示している。
本稿では,C コードの脆弱性を特定し,パッチする際の LLM の性能を評価するためのフレームワーク VulnLLMEval を紹介する。
私たちの研究には、Linuxカーネルから抽出された307の現実世界の脆弱性が含まれている。
論文 参考訳(メタデータ) (2024-09-16T22:00:20Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - The Impact of SBOM Generators on Vulnerability Assessment in Python: A Comparison and a Novel Approach [56.4040698609393]
Software Bill of Materials (SBOM) は、ソフトウェア構成における透明性と妥当性を高めるツールとして推奨されている。
現在のSBOM生成ツールは、コンポーネントや依存関係を識別する際の不正確さに悩まされることが多い。
提案するPIP-sbomは,その欠点に対処する新しいピップインスパイアされたソリューションである。
論文 参考訳(メタデータ) (2024-09-10T10:12:37Z) - Software Vulnerability and Functionality Assessment using LLMs [0.8057006406834466]
我々は,Large Language Models (LLMs) がコードレビューに役立つかどうかを検討する。
我々の調査は、良質なレビューに欠かせない2つの課題に焦点を当てている。
論文 参考訳(メタデータ) (2024-03-13T11:29:13Z) - SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large Language Models [107.82336341926134]
SALAD-Benchは、大規模言語モデル(LLM)を評価するために特別に設計された安全ベンチマークである。
それは、その大規模な、豊富な多様性、三つのレベルにまたがる複雑な分類、多目的機能を通じて、従来のベンチマークを超越している。
論文 参考訳(メタデータ) (2024-02-07T17:33:54Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - SALLM: Security Assessment of Generated Code [0.5137309756089941]
本稿では,セキュアなコードを体系的に生成する大規模言語モデルの能力をベンチマークするフレームワークであるSALLMについて述べる。
フレームワークには3つの主要なコンポーネントがある。セキュリティ中心のPythonプロンプトの新たなデータセット、生成されたコードを評価するための評価テクニック、セキュアなコード生成の観点からモデルのパフォーマンスを評価するための新しいメトリクスである。
論文 参考訳(メタデータ) (2023-11-01T22:46:31Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - Learning to Learn Better for Video Object Segmentation [94.5753973590207]
本稿では,SVOS の学習目標機能 (LLB) を強調する新しいフレームワークを提案する。
識別ラベル生成モジュール(DLGM)と適応融合モジュールを設計し,これらの課題に対処する。
提案手法は最先端性能を実現する。
論文 参考訳(メタデータ) (2022-12-05T09:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。