論文の概要: LLMs in Coding and their Impact on the Commercial Software Engineering Landscape
- arxiv url: http://arxiv.org/abs/2506.16653v1
- Date: Thu, 19 Jun 2025 23:43:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.291224
- Title: LLMs in Coding and their Impact on the Commercial Software Engineering Landscape
- Title(参考訳): コーディングにおけるLLMと商用ソフトウェア工学の景観への影響
- Authors: Vladislav Belozerov, Peter J Barclay, Askhan Sami,
- Abstract要約: 大規模言語モデルコーディングツールは現在、ソフトウェア工学において主流となっている。
しかし、こうしたツールが人間の努力を開発スタックに移すにつれ、新たな危険が生じます。
企業はすべてのAI生成コードにタグを付け、レビューする必要がある、と私たちは主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-language-model coding tools are now mainstream in software engineering. But as these same tools move human effort up the development stack, they present fresh dangers: 10% of real prompts leak private data, 42% of generated snippets hide security flaws, and the models can even ``agree'' with wrong ideas, a trait called sycophancy. We argue that firms must tag and review every AI-generated line of code, keep prompts and outputs inside private or on-premises deployments, obey emerging safety regulations, and add tests that catch sycophantic answers -- so they can gain speed without losing security and accuracy.
- Abstract(参考訳): 大規模言語モデルコーディングツールは現在、ソフトウェア工学において主流となっている。
本当のプロンプトの10%がプライベートデータをリークし、生成したスニペットの42%がセキュリティ上の欠陥を隠蔽し、モデルが間違ったアイデアで 'agree'' さえもできるのです。
企業は、AI生成されたすべてのコードにタグを付け、レビューし、プロンプトとアウトプットをプライベートまたはオンプレミスのデプロイメント内に保持し、新たな安全規則に従って、サイコファンティックな回答をキャッチするテストを追加しなければなりません。
関連論文リスト
- SOK: Exploring Hallucinations and Security Risks in AI-Assisted Software Development with Insights for LLM Deployment [0.0]
GitHub Copilot、ChatGPT、Cursor AI、Codeium AIといった大規模言語モデル(LLM)は、コーディングの世界に革命をもたらした。
本稿では,AIを利用したコーディングツールのメリットとリスクを包括的に分析する。
論文 参考訳(メタデータ) (2025-01-31T06:00:27Z) - Helping LLMs Improve Code Generation Using Feedback from Testing and Static Analysis [3.892345568697058]
大規模言語モデル(LLM)は人工知能分野における最も有望な発展の1つである。
開発者は定期的にLCMにコードスニペットの生成を依頼し、生産性の向上に加えて、オーナシップ、プライバシ、正確性、セキュリティ問題も導入する。
以前の作業では、商用のLLMによって生成されたコードが、脆弱性やバグ、コードの臭いなど、安全でないことが強調されていた。
論文 参考訳(メタデータ) (2024-12-19T13:34:14Z) - RedCode: Risky Code Execution and Generation Benchmark for Code Agents [50.81206098588923]
RedCodeはリスクの高いコード実行と生成のためのベンチマークである。
RedCode-Execは、危険なコード実行につながる可能性のある、挑戦的なプロンプトを提供する。
RedCode-Genは160のプロンプトに関数シグネチャとドキュメントを入力として提供し、コードエージェントが命令に従うかどうかを評価する。
論文 参考訳(メタデータ) (2024-11-12T13:30:06Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - LLM-Powered Code Vulnerability Repair with Reinforcement Learning and
Semantic Reward [3.729516018513228]
我々は,大規模な言語モデルであるCodeGen2を利用した多目的コード脆弱性解析システム texttSecRepair を導入する。
そこで本研究では,LLMを用いた脆弱性解析に適した命令ベースデータセットを提案する。
GitHub上の6つのオープンソースIoTオペレーティングシステムにおいて、ゼロデイとNデイの脆弱性を特定します。
論文 参考訳(メタデータ) (2024-01-07T02:46:39Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。