論文の概要: Saltzer & Schroeder for 2030: Security engineering principles in a world of AI
- arxiv url: http://arxiv.org/abs/2407.05710v1
- Date: Mon, 8 Jul 2024 08:10:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 16:30:32.527364
- Title: Saltzer & Schroeder for 2030: Security engineering principles in a world of AI
- Title(参考訳): Saltzer & Schroeder for 2030: AIの世界におけるセキュリティエンジニアリングの原則
- Authors: Nikhil Patnaik, Joseph Hallett, Awais Rashid,
- Abstract要約: 私たちはSaltzer & Schroederのセキュリティ設計原則を振り返って、AI生成コードの世界にまつわる課題を進化させ、適応する必要があります。
コード生成AIツールのさらなる採用を期待しています。
本稿では、AI生成コードの世界で生じる課題を進化させ、適応する必要があるため、Saltzer & Schroeder氏のセキュリティ設計原則を振り返る。
- 参考スコア(独自算出の注目度): 11.956866199691305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Writing secure code is challenging and so it is expected that, following the release of code-generative AI tools, such as ChatGPT and GitHub Copilot, developers will use these tools to perform security tasks and use security APIs. However, is the code generated by ChatGPT secure? How would the everyday software or security engineer be able to tell? As we approach the next decade we expect a greater adoption of code-generative AI tools and to see developers use them to write secure code. In preparation for this, we need to ensure security-by-design. In this paper, we look back in time to Saltzer & Schroeder's security design principles as they will need to evolve and adapt to the challenges that come with a world of AI-generated code.
- Abstract(参考訳): セキュアなコードを書くことは難しいため、ChatGPTやGitHub Copilotといったコード生成AIツールのリリースに続いて、開発者はこれらのツールを使用してセキュリティタスクを実行し、セキュリティAPIを使用することが期待されている。
しかし、ChatGPTによって生成されたコードは安全ですか?
日々のソフトウェアやセキュリティエンジニアはどのように話すことができるのか?
次の10年が近づくにつれ、コード生成AIツールのさらなる採用が期待でき、開発者がセキュアなコードを書くのにそれらを使うようになるでしょう。
これに備えるには、セキュリティ・バイ・デザインの確保が必要です。
本稿では、AI生成コードの世界で生じる課題を進化させ、適応する必要があるため、Saltzer & Schroeder氏のセキュリティ設計原則を振り返る。
関連論文リスト
- RedCode: Risky Code Execution and Generation Benchmark for Code Agents [50.81206098588923]
RedCodeはリスクの高いコード実行と生成のためのベンチマークである。
RedCode-Execは、危険なコード実行につながる可能性のある、挑戦的なプロンプトを提供する。
RedCode-Genは160のプロンプトに関数シグネチャとドキュメントを入力として提供し、コードエージェントが命令に従うかどうかを評価する。
論文 参考訳(メタデータ) (2024-11-12T13:30:06Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - "You still have to study" -- On the Security of LLM generated code [0.0]
日常的な(教室)プログラミングタスクにおいても,AIアシスタントの利用が増加しているのを目撃する。
プログラマがいわゆる"prompt"に基づいて生成するコードは、常に認められたセキュリティ基準を満たしているとは限らない。
論文 参考訳(メタデータ) (2024-08-13T07:57:53Z) - An Investigation into Misuse of Java Security APIs by Large Language Models [9.453671056356837]
本稿では,Java のセキュリティ API ユースケースに対する ChatGPT のコード生成に対する信頼性を体系的に評価する。
タスク毎に30の試行にまたがるコードインスタンスの約70%には、セキュリティAPIの誤用が含まれており、20の異なる誤用タイプが識別されている。
約半数のタスクにおいて、この割合は100%に達し、開発者がセキュリティAPIコードを安全に実装するためにChatGPTに頼るまでには長い道のりがあることを示している。
論文 参考訳(メタデータ) (2024-04-04T22:52:41Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - AI Code Generators for Security: Friend or Foe? [10.006772288191875]
セキュリティのためのAIコードジェネレータのユースケースをレビューし、評価ベンチマークを導入する。
人工知能(AI)コードジェネレータの最近の進歩は、悪意あるアクターによる誤用を含むソフトウェアセキュリティ研究の新たな機会を開きつつある。
論文 参考訳(メタデータ) (2024-02-02T08:41:15Z) - Assessing the Security of GitHub Copilot Generated Code -- A Targeted
Replication Study [11.644996472213611]
最近の研究は、GitHub CopilotやAmazon CodeWhispererといったAIによるコード生成ツールのセキュリティ問題を調査している。
本稿では、コパイロットのセキュリティの弱点を調査し、コパイロットが提案するコードにいくつかの弱点を発見したPearce et al.の研究を再現する。
我々の結果は、新しいバージョンのCopilotが改良されても、脆弱性のあるコード提案の割合が36.54%から27.25%に減少していることを示している。
論文 参考訳(メタデータ) (2023-11-18T22:12:59Z) - A LLM Assisted Exploitation of AI-Guardian [57.572998144258705]
IEEE S&P 2023で発表された敵に対する最近の防衛であるAI-Guardianの堅牢性を評価する。
我々は、このモデルを攻撃するためのコードを書かず、代わりに、GPT-4に命令とガイダンスに従って全ての攻撃アルゴリズムを実装するよう促します。
このプロセスは驚くほど効果的で効率的であり、言語モデルでは、この論文の著者が実行したよりも高速に曖昧な命令からコードを生成することもあった。
論文 参考訳(メタデータ) (2023-07-20T17:33:25Z) - AI Product Security: A Primer for Developers [0.685316573653194]
機械学習製品に対する脅威を理解し、AI製品開発における共通の落とし穴を避けることが不可欠である。
この記事は、AIソフトウェア製品の開発者、デザイナー、マネージャ、研究者に宛てられている。
論文 参考訳(メタデータ) (2023-04-18T05:22:34Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。