論文の概要: Time to Separate from StackOverflow and Match with ChatGPT for Encryption
- arxiv url: http://arxiv.org/abs/2406.06164v1
- Date: Mon, 10 Jun 2024 10:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 14:17:29.208218
- Title: Time to Separate from StackOverflow and Match with ChatGPT for Encryption
- Title(参考訳): StackOverflowから分離する時間と暗号化のためのChatGPTとのマッチング
- Authors: Ehsan Firouzi, Mohammad Ghafari,
- Abstract要約: セキュリティは開発者にとって最大の関心事ですが、セキュリティ問題はコードスニペットに広まっています。
ChatGPTは、開発者が適切に関わったときに効果的に助けることができる。
- 参考スコア(独自算出の注目度): 0.09208007322096533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cryptography is known as a challenging topic for developers. We studied StackOverflow posts to identify the problems that developers encounter when using Java Cryptography Architecture (JCA) for symmetric encryption. We investigated security risks that are disseminated in these posts, and we examined whether ChatGPT helps avoid cryptography issues. We found that developers frequently struggle with key and IV generations, as well as padding. Security is a top concern among developers, but security issues are pervasive in code snippets. ChatGPT can effectively aid developers when they engage with it properly. Nevertheless, it does not substitute human expertise, and developers should remain alert.
- Abstract(参考訳): 暗号化は開発者にとって難しいトピックとして知られている。
我々は、Java Cryptography Architecture(JCA)を対称暗号化に使用する際に開発者が直面する問題を特定するためにStackOverflowの投稿を調査した。
これらの投稿に散在するセキュリティリスクを調査し,ChatGPTが暗号問題を回避できるかどうかを検討した。
私たちは、開発者がしばしばキーとIV世代、パディングに苦労していることに気付きました。
セキュリティは開発者にとって最大の関心事ですが、セキュリティ問題はコードスニペットに広まっています。
ChatGPTは、開発者が適切に関わったときに効果的に助けることができる。
それでも、それは人間の専門知識の代わりにはならない。
関連論文リスト
- From Struggle to Simplicity with a Usable and Secure API for Encryption in Java [0.07499722271664144]
SafEncryptは、Java開発者のための暗号化タスクを合理化するAPIである。
ネイティブのJava Cryptography Architecture上に構築されており、暗号化の複雑さや誤った低レベルの詳細から開発者を保護する。
論文 参考訳(メタデータ) (2024-09-08T15:16:12Z) - Where do developers admit their security-related concerns? [0.8180494308743708]
産業環境で4つの大規模、現実世界、オープンソースプロジェクトから、さまざまなコードドキュメンテーションのソースを分析しました。
開発者がソースコードコメントやイシュートラッカにセキュリティ上の懸念を文書化するのを好むことがわかりました。
論文 参考訳(メタデータ) (2024-05-17T16:43:58Z) - An Investigation into Misuse of Java Security APIs by Large Language Models [9.453671056356837]
本稿では,Java のセキュリティ API ユースケースに対する ChatGPT のコード生成に対する信頼性を体系的に評価する。
タスク毎に30の試行にまたがるコードインスタンスの約70%には、セキュリティAPIの誤用が含まれており、20の異なる誤用タイプが識別されている。
約半数のタスクにおいて、この割合は100%に達し、開発者がセキュリティAPIコードを安全に実装するためにChatGPTに頼るまでには長い道のりがあることを示している。
論文 参考訳(メタデータ) (2024-04-04T22:52:41Z) - Just another copy and paste? Comparing the security vulnerabilities of ChatGPT generated code and StackOverflow answers [4.320393382724067]
この研究は、ChatGPTとStackOverflowスニペットの脆弱性を実証的に比較する。
ChatGPTはSOスニペットにある302の脆弱性と比較して248の脆弱性を含んでおり、統計的に有意な差のある20%の脆弱性を生み出した。
この結果から,両プラットフォーム間の安全性の低いコード伝搬について,開発者が教育を受けていないことが示唆された。
論文 参考訳(メタデータ) (2024-03-22T20:06:41Z) - CodeChameleon: Personalized Encryption Framework for Jailbreaking Large
Language Models [49.60006012946767]
パーソナライズされた暗号化手法に基づく新しいジェイルブレイクフレームワークであるCodeChameleonを提案する。
我々は、7つの大規模言語モデルに関する広範な実験を行い、最先端の平均アタック成功率(ASR)を達成する。
GPT-4-1106上で86.6%のASRを実現する。
論文 参考訳(メタデータ) (2024-02-26T16:35:59Z) - Exploring ChatGPT's Capabilities on Vulnerability Management [56.4403395100589]
我々は、70,346のサンプルを含む大規模なデータセットを用いて、完全な脆弱性管理プロセスを含む6つのタスクでChatGPTの機能を探求する。
注目すべき例として、ChatGPTのソフトウェアバグレポートのタイトル生成などのタスクにおける熟練度がある。
以上の結果から,ChatGPTが抱える障害が明らかとなり,将来的な方向性に光を当てた。
論文 参考訳(メタデータ) (2023-11-11T11:01:13Z) - GPT-4 Is Too Smart To Be Safe: Stealthy Chat with LLMs via Cipher [85.18213923151717]
実験により、いくつかの安全領域において、GPT-4の安全性アライメントをバイパスするために、ある暗号がほぼ100%の時間で成功することが示された。
本稿では,ロールプレイのみを使用し,自然言語によるいくつかの実演を行い,これを誘発する新しいSelfCipherを提案する。
論文 参考訳(メタデータ) (2023-08-12T04:05:57Z) - Evaluating Privacy Questions From Stack Overflow: Can ChatGPT Compete? [1.231476564107544]
ChatGPTはコードの生成や開発者の質問に対する応答の代替手段として使用されている。
以上の結果から,プライバシ関連の質問の多くは,選択/同意,集約,識別に関連があることが示唆された。
論文 参考訳(メタデータ) (2023-06-19T21:33:04Z) - RiDDLE: Reversible and Diversified De-identification with Latent
Encryptor [57.66174700276893]
本研究は、Reversible and Diversified De-identification with Latent Encryptorの略であるRiDDLEを提示する。
事前に学習したStyleGAN2ジェネレータ上に構築されたRiDDLEは、潜伏空間内の顔のアイデンティティを暗号化して復号する。
論文 参考訳(メタデータ) (2023-03-09T11:03:52Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - TextHide: Tackling Data Privacy in Language Understanding Tasks [54.11691303032022]
TextHideは、トレーニングを遅くしたり、精度を下げることなく、プライバシー上のリスクを軽減する。
すべての参加者は、盗聴攻撃者がプライベートテキストデータを復元するのを防ぐために、簡単な暗号化ステップを追加する必要がある。
我々は、GLUEベンチマーク上でTextHideを評価し、TextHideが共有勾配や表現に対する攻撃を効果的に防御できることを示す。
論文 参考訳(メタデータ) (2020-10-12T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。