論文の概要: Vulnerability Handling of AI-Generated Code -- Existing Solutions and Open Challenges
- arxiv url: http://arxiv.org/abs/2408.08549v1
- Date: Fri, 16 Aug 2024 06:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 16:28:41.239144
- Title: Vulnerability Handling of AI-Generated Code -- Existing Solutions and Open Challenges
- Title(参考訳): AI生成コードの脆弱性処理 - 既存のソリューションとオープンチャレンジ
- Authors: Sabrina Kaniewski, Dieter Holstein, Fabian Schmidt, Tobias Heer,
- Abstract要約: AI生成コードの脆弱性検出、ローカライゼーション、修復のためのアプローチに重点を置いている。
AI生成コードの信頼性とスケーラブルな脆弱性処理プロセスを確立するためには,対処しなければならないオープンな課題を強調します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing use of generative Artificial Intelligence (AI) in modern software engineering, particularly Large Language Models (LLMs) for code generation, has transformed professional software development by boosting productivity and automating development processes. This adoption, however, has highlighted a significant issue: the introduction of security vulnerabilities into the code. These vulnerabilities result, e.g., from flaws in the training data that propagate into the generated code, creating challenges in disclosing them. Traditional vulnerability handling processes often involve extensive manual review. Applying such traditional processes to AI-generated code is challenging. AI-generated code may include several vulnerabilities, possibly in slightly different forms as developers might not build on already implemented code but prompt similar tasks. In this work, we explore the current state of LLM-based approaches for vulnerability handling, focusing on approaches for vulnerability detection, localization, and repair. We provide an overview of recent progress in this area and highlight open challenges that must be addressed in order to establish a reliable and scalable vulnerability handling process of AI-generated code.
- Abstract(参考訳): 現代のソフトウェアエンジニアリングにおける生成人工知能(AI)の利用の増加、特にコード生成のためのLarge Language Models(LLM)は、生産性を高め、開発プロセスを自動化することで、プロフェッショナルなソフトウェア開発を変革した。
しかし、この採用は重大な問題、すなわちコードにセキュリティ脆弱性が導入されることを強調している。
これらの脆弱性は、例えば、生成されたコードに伝播するトレーニングデータの欠陥から発生し、それらを開示する上での課題を生み出します。
従来の脆弱性処理プロセスには、手作業による広範なレビューが伴うことが多い。
このような従来のプロセスをAI生成コードに適用することは難しい。
AI生成コードには、いくつかの脆弱性が含まれている可能性がある。
本研究では、脆弱性検出、ローカライゼーション、修復に焦点をあて、脆弱性処理のためのLLMベースのアプローチの現状について検討する。
この領域における最近の進歩の概要を提供し、AI生成コードの信頼性とスケーラブルな脆弱性処理プロセスを確立するためには、対処しなければならないオープンな課題を強調します。
関連論文リスト
- LLMs as Continuous Learners: Improving the Reproduction of Defective Code in Software Issues [62.12404317786005]
EvoCoderは、イシューコード再現のための継続的学習フレームワークである。
その結果,既存のSOTA法よりも20%改善した。
論文 参考訳(メタデータ) (2024-11-21T08:49:23Z) - Establishing Minimum Elements for Effective Vulnerability Management in AI Software [4.067778725390327]
本稿では,AI脆弱性管理の最小要素と人工知能脆弱性データベース(AIVD)の確立について論じる。
AI脆弱性の公開、分析、カタログ化、文書化のための標準化されたフォーマットとプロトコルを提供する。
論文 参考訳(メタデータ) (2024-11-18T06:22:20Z) - Is Your AI-Generated Code Really Safe? Evaluating Large Language Models on Secure Code Generation with CodeSecEval [20.959848710829878]
大規模言語モデル(LLM)は、コード生成とコード修復に大きな進歩をもたらした。
しかし、GitHubのようなオープンソースのリポジトリから無防備なデータを使用したトレーニングは、セキュリティ上の脆弱性を必然的に伝播するリスクを増大させる。
我々は,コードLLMのセキュリティ面を正確に評価し,拡張することを目的とした総合的研究を提案する。
論文 参考訳(メタデータ) (2024-07-02T16:13:21Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - On the Challenges and Opportunities in Generative AI [135.2754367149689]
現在の大規模生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの基本的な問題に十分対応していない、と我々は主張する。
本研究は、現代の生成型AIパラダイムにおける重要な未解決課題を特定し、その能力、汎用性、信頼性をさらに向上するために取り組まなければならない。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - LLM-Powered Code Vulnerability Repair with Reinforcement Learning and
Semantic Reward [3.729516018513228]
我々は,大規模な言語モデルであるCodeGen2を利用した多目的コード脆弱性解析システム texttSecRepair を導入する。
そこで本研究では,LLMを用いた脆弱性解析に適した命令ベースデータセットを提案する。
GitHub上の6つのオープンソースIoTオペレーティングシステムにおいて、ゼロデイとNデイの脆弱性を特定します。
論文 参考訳(メタデータ) (2024-01-07T02:46:39Z) - Utilization of machine learning for the detection of self-admitted
vulnerabilities [0.0]
技術的負債(Technical debt)とは、短期的なニーズのために導入された、不公平なコードを記述するメタファーである。
開発者はそれを意識し、ソースコードのコメントで認めている。
論文 参考訳(メタデータ) (2023-09-27T12:38:12Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。