論文の概要: Can OpenAI Codex and Other Large Language Models Help Us Fix Security
Bugs?
- arxiv url: http://arxiv.org/abs/2112.02125v1
- Date: Fri, 3 Dec 2021 19:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:38:05.814654
- Title: Can OpenAI Codex and Other Large Language Models Help Us Fix Security
Bugs?
- Title(参考訳): OpenAI Codexや他の大規模言語モデルはセキュリティバグの修正に役立つか?
- Authors: Hammond Pearce and Benjamin Tan and Baleegh Ahmad and Ramesh Karri and
Brendan Dolan-Gavitt
- Abstract要約: コード修復における大規模言語モデル (LLM) の利用について検討する。
安全でないコードの修正版を生成するためにLLMをコークスするプロンプトを設計する際の課題について検討する。
実験の結果、LLMは人工的に生成されたシナリオと手作りのシナリオの100%をまとめて修復できることがわかった。
- 参考スコア(独自算出の注目度): 8.285068188878578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human developers can produce code with cybersecurity weaknesses. Can emerging
'smart' code completion tools help repair those weaknesses? In this work, we
examine the use of large language models (LLMs) for code (such as OpenAI's
Codex and AI21's Jurassic J-1) for zero-shot vulnerability repair. We
investigate challenges in the design of prompts that coax LLMs into generating
repaired versions of insecure code. This is difficult due to the numerous ways
to phrase key information -- both semantically and syntactically -- with
natural languages. By performing a large scale study of four commercially
available, black-box, "off-the-shelf" LLMs, as well as a locally-trained model,
on a mix of synthetic, hand-crafted, and real-world security bug scenarios, our
experiments show that LLMs could collectively repair 100% of our synthetically
generated and hand-crafted scenarios, as well as 58% of vulnerabilities in a
selection of historical bugs in real-world open-source projects.
- Abstract(参考訳): 人間の開発者はサイバーセキュリティの弱点のあるコードを生成できる。
スマートなコード補完ツールは、これらの弱点を修復するのに役立つだろうか?
本研究では,大規模言語モデル(LLM)をコード(OpenAIのCodexやAI21のJurassic J-1など)でゼロショット脆弱性修復に利用することを検討する。
我々は,coax llm が安全でないコードの修正バージョンを生成するプロンプトの設計における課題について検討する。
キー情報 -- 意味的にも構文的にも -- を自然言語で表現する多くの方法があるため、これは難しい。
市販のブラックボックス,オフザシェルフ(off-the-shelf)LLM,およびローカルトレーニングされたモデルを用いて,合成,手作り,実世界のセキュリティのシナリオを交互に組み合わせた大規模研究を行うことにより,実世界のオープンソースプロジェクトにおける歴史的バグの58%に加えて,合成および手作りのシナリオの100%をLLMが一括して修復可能であることを示す。
関連論文リスト
- HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - An Exploratory Study on Fine-Tuning Large Language Models for Secure Code Generation [17.69409515806874]
脆弱性修正コミットのデータセット上での微調整済みのLLMがセキュアなコード生成を促進するかどうかを探索研究する。
オープンソースのリポジトリから、確認済みの脆弱性のコード修正を収集することで、セキュアなコード生成のための微調整データセットをクロールしました。
我々の調査によると、微調整のLLMは、C言語で6.4%、C++言語で5.4%、セキュアなコード生成を改善することができる。
論文 参考訳(メタデータ) (2024-08-17T02:51:27Z) - Is Your AI-Generated Code Really Safe? Evaluating Large Language Models on Secure Code Generation with CodeSecEval [20.959848710829878]
大規模言語モデル(LLM)は、コード生成とコード修復に大きな進歩をもたらした。
しかし、GitHubのようなオープンソースのリポジトリから無防備なデータを使用したトレーニングは、セキュリティ上の脆弱性を必然的に伝播するリスクを増大させる。
我々は,コードLLMのセキュリティ面を正確に評価し,拡張することを目的とした総合的研究を提案する。
論文 参考訳(メタデータ) (2024-07-02T16:13:21Z) - Software Vulnerability and Functionality Assessment using LLMs [0.8057006406834466]
我々は,Large Language Models (LLMs) がコードレビューに役立つかどうかを検討する。
我々の調査は、良質なレビューに欠かせない2つの課題に焦点を当てている。
論文 参考訳(メタデータ) (2024-03-13T11:29:13Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - Assured LLM-Based Software Engineering [51.003878077888686]
この記事では,2024年4月15日にポルトガルのリスボンで開催された International Workshop on Interpretability, Robustness, and Benchmarking in Neural Software Engineering で,Mark Harman 氏による基調講演の内容の概要を紹介する。
論文 参考訳(メタデータ) (2024-02-06T20:38:46Z) - Weak-to-Strong Jailbreaking on Large Language Models [96.50953637783581]
大規模言語モデル(LLM)は、ジェイルブレイク攻撃に対して脆弱である。
既存のジェイルブレイク法は計算コストがかかる。
我々は、弱々しく強固な脱獄攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-30T18:48:37Z) - LLM-Powered Code Vulnerability Repair with Reinforcement Learning and
Semantic Reward [3.729516018513228]
我々は,大規模な言語モデルであるCodeGen2を利用した多目的コード脆弱性解析システム texttSecRepair を導入する。
そこで本研究では,LLMを用いた脆弱性解析に適した命令ベースデータセットを提案する。
GitHub上の6つのオープンソースIoTオペレーティングシステムにおいて、ゼロデイとNデイの脆弱性を特定します。
論文 参考訳(メタデータ) (2024-01-07T02:46:39Z) - Can LLMs Patch Security Issues? [1.3299507495084417]
LLM(Large Language Models)は、コード生成に優れた習熟度を示している。
LLMは人間と弱点を共有している。
我々は、LLMが生成した脆弱性のあるコードを自動的に洗練するフィードバック駆動セキュリティパッチング(FDSP)を提案する。
論文 参考訳(メタデータ) (2023-11-13T08:54:37Z) - A LLM Assisted Exploitation of AI-Guardian [57.572998144258705]
IEEE S&P 2023で発表された敵に対する最近の防衛であるAI-Guardianの堅牢性を評価する。
我々は、このモデルを攻撃するためのコードを書かず、代わりに、GPT-4に命令とガイダンスに従って全ての攻撃アルゴリズムを実装するよう促します。
このプロセスは驚くほど効果的で効率的であり、言語モデルでは、この論文の著者が実行したよりも高速に曖昧な命令からコードを生成することもあった。
論文 参考訳(メタデータ) (2023-07-20T17:33:25Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。