論文の概要: Saltzer & Schroeder for 2030: Security engineering principles in a world of AI
- arxiv url: http://arxiv.org/abs/2407.05710v1
- Date: Mon, 8 Jul 2024 08:10:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 16:30:32.527364
- Title: Saltzer & Schroeder for 2030: Security engineering principles in a world of AI
- Title(参考訳): Saltzer & Schroeder for 2030: AIの世界におけるセキュリティエンジニアリングの原則
- Authors: Nikhil Patnaik, Joseph Hallett, Awais Rashid,
- Abstract要約: 私たちはSaltzer & Schroederのセキュリティ設計原則を振り返って、AI生成コードの世界にまつわる課題を進化させ、適応する必要があります。
コード生成AIツールのさらなる採用を期待しています。
本稿では、AI生成コードの世界で生じる課題を進化させ、適応する必要があるため、Saltzer & Schroeder氏のセキュリティ設計原則を振り返る。
- 参考スコア(独自算出の注目度): 11.956866199691305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Writing secure code is challenging and so it is expected that, following the release of code-generative AI tools, such as ChatGPT and GitHub Copilot, developers will use these tools to perform security tasks and use security APIs. However, is the code generated by ChatGPT secure? How would the everyday software or security engineer be able to tell? As we approach the next decade we expect a greater adoption of code-generative AI tools and to see developers use them to write secure code. In preparation for this, we need to ensure security-by-design. In this paper, we look back in time to Saltzer & Schroeder's security design principles as they will need to evolve and adapt to the challenges that come with a world of AI-generated code.
- Abstract(参考訳): セキュアなコードを書くことは難しいため、ChatGPTやGitHub Copilotといったコード生成AIツールのリリースに続いて、開発者はこれらのツールを使用してセキュリティタスクを実行し、セキュリティAPIを使用することが期待されている。
しかし、ChatGPTによって生成されたコードは安全ですか?
日々のソフトウェアやセキュリティエンジニアはどのように話すことができるのか?
次の10年が近づくにつれ、コード生成AIツールのさらなる採用が期待でき、開発者がセキュアなコードを書くのにそれらを使うようになるでしょう。
これに備えるには、セキュリティ・バイ・デザインの確保が必要です。
本稿では、AI生成コードの世界で生じる課題を進化させ、適応する必要があるため、Saltzer & Schroeder氏のセキュリティ設計原則を振り返る。
関連論文リスト
- OpenDevin: An Open Platform for AI Software Developers as Generalist Agents [109.8507367518992]
私たちは、人間の開発者と同様の方法で世界と対話するAIエージェントを開発するためのプラットフォームであるOpenDevinを紹介します。
プラットフォームが新しいエージェントの実装を可能にし、コード実行のためのサンドボックス環境との安全なインタラクション、評価ベンチマークの導入について説明する。
論文 参考訳(メタデータ) (2024-07-23T17:50:43Z) - Using AI Assistants in Software Development: A Qualitative Study on Security Practices and Concerns [23.867795468379743]
最近の研究は、AI生成コードがセキュリティ問題を含むことを実証している。
ソフトウェア専門家がAIアシスタントの使用とセキュリティのバランスをとる方法はまだ不明だ。
本稿では,ソフトウェアプロフェッショナルがセキュアなソフトウェア開発にAIアシスタントをどのように利用するかを検討する。
論文 参考訳(メタデータ) (2024-05-10T10:13:19Z) - An Investigation into Misuse of Java Security APIs by Large Language Models [9.453671056356837]
本稿では,Java のセキュリティ API ユースケースに対する ChatGPT のコード生成に対する信頼性を体系的に評価する。
タスク毎に30の試行にまたがるコードインスタンスの約70%には、セキュリティAPIの誤用が含まれており、20の異なる誤用タイプが識別されている。
約半数のタスクにおいて、この割合は100%に達し、開発者がセキュリティAPIコードを安全に実装するためにChatGPTに頼るまでには長い道のりがあることを示している。
論文 参考訳(メタデータ) (2024-04-04T22:52:41Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - Assured LLM-Based Software Engineering [51.003878077888686]
この記事では,2024年4月15日にポルトガルのリスボンで開催された International Workshop on Interpretability, Robustness, and Benchmarking in Neural Software Engineering で,Mark Harman 氏による基調講演の内容の概要を紹介する。
論文 参考訳(メタデータ) (2024-02-06T20:38:46Z) - AI Code Generators for Security: Friend or Foe? [10.006772288191875]
セキュリティのためのAIコードジェネレータのユースケースをレビューし、評価ベンチマークを導入する。
人工知能(AI)コードジェネレータの最近の進歩は、悪意あるアクターによる誤用を含むソフトウェアセキュリティ研究の新たな機会を開きつつある。
論文 参考訳(メタデータ) (2024-02-02T08:41:15Z) - Assessing the Security of GitHub Copilot Generated Code -- A Targeted
Replication Study [11.644996472213611]
最近の研究は、GitHub CopilotやAmazon CodeWhispererといったAIによるコード生成ツールのセキュリティ問題を調査している。
本稿では、コパイロットのセキュリティの弱点を調査し、コパイロットが提案するコードにいくつかの弱点を発見したPearce et al.の研究を再現する。
我々の結果は、新しいバージョンのCopilotが改良されても、脆弱性のあるコード提案の割合が36.54%から27.25%に減少していることを示している。
論文 参考訳(メタデータ) (2023-11-18T22:12:59Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - A LLM Assisted Exploitation of AI-Guardian [57.572998144258705]
IEEE S&P 2023で発表された敵に対する最近の防衛であるAI-Guardianの堅牢性を評価する。
我々は、このモデルを攻撃するためのコードを書かず、代わりに、GPT-4に命令とガイダンスに従って全ての攻撃アルゴリズムを実装するよう促します。
このプロセスは驚くほど効果的で効率的であり、言語モデルでは、この論文の著者が実行したよりも高速に曖昧な命令からコードを生成することもあった。
論文 参考訳(メタデータ) (2023-07-20T17:33:25Z) - AI Product Security: A Primer for Developers [0.685316573653194]
機械学習製品に対する脅威を理解し、AI製品開発における共通の落とし穴を避けることが不可欠である。
この記事は、AIソフトウェア製品の開発者、デザイナー、マネージャ、研究者に宛てられている。
論文 参考訳(メタデータ) (2023-04-18T05:22:34Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。