論文の概要: Can OpenAI Codex and Other Large Language Models Help Us Fix Security
Bugs?
- arxiv url: http://arxiv.org/abs/2112.02125v1
- Date: Fri, 3 Dec 2021 19:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:38:05.814654
- Title: Can OpenAI Codex and Other Large Language Models Help Us Fix Security
Bugs?
- Title(参考訳): OpenAI Codexや他の大規模言語モデルはセキュリティバグの修正に役立つか?
- Authors: Hammond Pearce and Benjamin Tan and Baleegh Ahmad and Ramesh Karri and
Brendan Dolan-Gavitt
- Abstract要約: コード修復における大規模言語モデル (LLM) の利用について検討する。
安全でないコードの修正版を生成するためにLLMをコークスするプロンプトを設計する際の課題について検討する。
実験の結果、LLMは人工的に生成されたシナリオと手作りのシナリオの100%をまとめて修復できることがわかった。
- 参考スコア(独自算出の注目度): 8.285068188878578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human developers can produce code with cybersecurity weaknesses. Can emerging
'smart' code completion tools help repair those weaknesses? In this work, we
examine the use of large language models (LLMs) for code (such as OpenAI's
Codex and AI21's Jurassic J-1) for zero-shot vulnerability repair. We
investigate challenges in the design of prompts that coax LLMs into generating
repaired versions of insecure code. This is difficult due to the numerous ways
to phrase key information -- both semantically and syntactically -- with
natural languages. By performing a large scale study of four commercially
available, black-box, "off-the-shelf" LLMs, as well as a locally-trained model,
on a mix of synthetic, hand-crafted, and real-world security bug scenarios, our
experiments show that LLMs could collectively repair 100% of our synthetically
generated and hand-crafted scenarios, as well as 58% of vulnerabilities in a
selection of historical bugs in real-world open-source projects.
- Abstract(参考訳): 人間の開発者はサイバーセキュリティの弱点のあるコードを生成できる。
スマートなコード補完ツールは、これらの弱点を修復するのに役立つだろうか?
本研究では,大規模言語モデル(LLM)をコード(OpenAIのCodexやAI21のJurassic J-1など)でゼロショット脆弱性修復に利用することを検討する。
我々は,coax llm が安全でないコードの修正バージョンを生成するプロンプトの設計における課題について検討する。
キー情報 -- 意味的にも構文的にも -- を自然言語で表現する多くの方法があるため、これは難しい。
市販のブラックボックス,オフザシェルフ(off-the-shelf)LLM,およびローカルトレーニングされたモデルを用いて,合成,手作り,実世界のセキュリティのシナリオを交互に組み合わせた大規模研究を行うことにより,実世界のオープンソースプロジェクトにおける歴史的バグの58%に加えて,合成および手作りのシナリオの100%をLLMが一括して修復可能であることを示す。
関連論文リスト
- Software Vulnerability and Functionality Assessment using LLMs [0.8057006406834466]
我々は,Large Language Models (LLMs) がコードレビューに役立つかどうかを検討する。
我々の調査は、良質なレビューに欠かせない2つの課題に焦点を当てている。
論文 参考訳(メタデータ) (2024-03-13T11:29:13Z) - Exploring Safety Generalization Challenges of Large Language Models via Code [126.80573601180411]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
調査によると、CodeAttackは全モデルの80%以上の安全ガードレールを一貫してバイパスしている。
CodeAttackと自然言語の間の大きな分散ギャップは、安全性の一般化を弱める。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - Assured LLM-Based Software Engineering [51.003878077888686]
この記事では,2024年4月15日にポルトガルのリスボンで開催された International Workshop on Interpretability, Robustness, and Benchmarking in Neural Software Engineering で,Mark Harman 氏による基調講演の内容の概要を紹介する。
論文 参考訳(メタデータ) (2024-02-06T20:38:46Z) - Weak-to-Strong Jailbreaking on Large Language Models [96.50953637783581]
大規模言語モデル(LLM)は、ジェイルブレイク攻撃に対して脆弱である。
既存のジェイルブレイク法は計算コストがかかる。
我々は、弱々しく強固な脱獄攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-30T18:48:37Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - LLM-Powered Code Vulnerability Repair with Reinforcement Learning and
Semantic Reward [3.729516018513228]
我々は,大規模な言語モデルであるCodeGen2を利用した多目的コード脆弱性解析システム texttSecRepair を導入する。
そこで本研究では,LLMを用いた脆弱性解析に適した命令ベースデータセットを提案する。
GitHub上の6つのオープンソースIoTオペレーティングシステムにおいて、ゼロデイとNデイの脆弱性を特定します。
論文 参考訳(メタデータ) (2024-01-07T02:46:39Z) - Understanding the Effectiveness of Large Language Models in Detecting
Security Vulnerabilities [13.591113697508117]
LLM(Large Language Models)は、コード関連のタスクにおいて顕著なパフォーマンスを示す。
LLMは、既存の静的解析やディープラーニングに基づく脆弱性検出ツールよりもよく機能することを示す。
LLMは、しばしば、コード内の脆弱なデータフローを特定する、信頼できる説明を提供する。
論文 参考訳(メタデータ) (2023-11-16T13:17:20Z) - Can LLMs Patch Security Issues? [0.26107298043931204]
LLM(Large Language Models)は、コード生成に優れた習熟度を示している。
LLMはセキュリティ上の脆弱性や欠陥を含むコードを生成する。
そこで本稿では,Bandit からのフィードバックを受信するための LLM の利用について検討する。
論文 参考訳(メタデータ) (2023-11-13T08:54:37Z) - ZeroLeak: Using LLMs for Scalable and Cost Effective Side-Channel
Patching [6.556868623811133]
セキュリティクリティカルなソフトウェア、例えばOpenSSLには、リソースや専門家が不足しているため、パッチが残っていないサイドチャネルのリークが多数含まれている。
マイクロアーキテクチャのサイドチャネルリークを伴う脆弱性コードに対するパッチ生成において,LLM(Large Language Models)の使用について検討する。
論文 参考訳(メタデータ) (2023-08-24T20:04:36Z) - A LLM Assisted Exploitation of AI-Guardian [57.572998144258705]
IEEE S&P 2023で発表された敵に対する最近の防衛であるAI-Guardianの堅牢性を評価する。
我々は、このモデルを攻撃するためのコードを書かず、代わりに、GPT-4に命令とガイダンスに従って全ての攻撃アルゴリズムを実装するよう促します。
このプロセスは驚くほど効果的で効率的であり、言語モデルでは、この論文の著者が実行したよりも高速に曖昧な命令からコードを生成することもあった。
論文 参考訳(メタデータ) (2023-07-20T17:33:25Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。