論文の概要: Comment Traps: How Defective Commented-out Code Augment Defects in AI-Assisted Code Generation
- arxiv url: http://arxiv.org/abs/2512.20334v1
- Date: Tue, 23 Dec 2025 13:08:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.880893
- Title: Comment Traps: How Defective Commented-out Code Augment Defects in AI-Assisted Code Generation
- Title(参考訳): コメントのトラプス:AI支援コード生成における欠陥のあるコメントアウトコードの欠陥
- Authors: Yuan Huang, Yukang Zhou, Xiangping Chen, Zibin Zheng,
- Abstract要約: GitHub CopilotとCursorは、ソフトウェア開発プラクティスに革命をもたらしている。
これまでの研究は、コードのコンテキストが欠陥コードの生成にどのように影響するかを主に調査してきた。
この研究は、AIコーディングアシスタントであるGitHub CopilotとCursorがどのように欠陥のあるCOコードに影響されているかを評価する。
- 参考スコア(独自算出の注目度): 40.52928802861937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of large language models in code generation, AI-powered editors such as GitHub Copilot and Cursor are revolutionizing software development practices. At the same time, studies have identified potential defects in the generated code. Previous research has predominantly examined how code context influences the generation of defective code, often overlooking the impact of defects within commented-out code (CO code). AI coding assistants' interpretation of CO code in prompts affects the code they generate. This study evaluates how AI coding assistants, GitHub Copilot and Cursor, are influenced by defective CO code. The experimental results show that defective CO code in the context causes AI coding assistants to generate more defective code, reaching up to 58.17 percent. Our findings further demonstrate that the tools do not simply copy the defective code from the context. Instead, they actively reason to complete incomplete defect patterns and continue to produce defective code despite distractions such as incorrect indentation or tags. Even with explicit instructions to ignore the defective CO code, the reduction in defects does not exceed 21.84 percent. These findings underscore the need for improved robustness and security measures in AI coding assistants.
- Abstract(参考訳): コード生成における大規模言語モデルの急速な開発に伴い、GitHub CopilotやCursorといったAI駆動のエディタは、ソフトウェア開発プラクティスに革命をもたらしている。
同時に、研究によって生成されたコードに潜在的な欠陥が特定されている。
従来の研究は、コードコンテキストが欠陥コードの生成にどのように影響するかを主に調査しており、しばしばコメントアウトコード(COコード)の欠陥の影響を見落としている。
AIコーディングアシスタントによるCOコードの解釈は、生成するコードに影響を与える。
この研究は、AIコーディングアシスタントであるGitHub CopilotとCursorがどのように欠陥のあるCOコードに影響されているかを評価する。
実験の結果、文脈に欠陥のあるCOコードは、AIコーディングアシスタントがより欠陥のあるコードを生成する原因となり、最大58.17パーセントに達することが示された。
我々の発見は、ツールが単にコンテキストから欠陥コードをコピーするわけではないことをさらに証明している。
その代わりに、不完全な欠陥パターンを完了し、不正なインデンテーションやタグなどの注意をそらしながら、欠陥コードを生成し続けることを積極的に理由付けている。
欠陥のあるCOコードを無視する明確な指示にもかかわらず、欠陥の減少は21.84パーセントを超えない。
これらの知見は、AIコーディングアシスタントの堅牢性とセキュリティ対策の改善の必要性を浮き彫りにしている。
関連論文リスト
- A Survey of Bugs in AI-Generated Code [7.6152117373301875]
AI生成コードに関連するいくつかの品質問題が報告されている。
本稿では、既存のAI生成コード文献を体系的に分析し、生成されたコードにおけるバグや欠陥の全体的な理解を確立する。
論文 参考訳(メタデータ) (2025-12-04T20:35:59Z) - Vibe Coding in Practice: Motivations, Challenges, and a Future Outlook -- a Grey Literature Review [2.5195922470930614]
バイブコーディング(Vibe coding)とは、AIコード生成ツールを直感や試行錯誤を通じて、基礎となるコードを必ずしも理解せずに使用するプラクティスである。
ユーザーがなぜバイブコーディングに関わったのか、何を経験しているか、品質保証(QA)にどのようにアプローチし、AI生成コードの品質を知覚するかを体系的に調査した研究はない。
私たちの分析では、スピードとアクセシビリティによってビブコーダがモチベーションを得て、迅速な即時的な成功とフローを経験する"という、スピード品質のトレードオフパラドックスを明らかにしています。
論文 参考訳(メタデータ) (2025-09-30T22:35:00Z) - DeputyDev -- AI Powered Developer Assistant: Breaking the Code Review Logjam through Contextual AI to Boost Developer Productivity [38.585498338645856]
本研究は,AddicateDevの実装と有効性について検討する。
ViceDevはAIを利用したコードレビューアシスタントで、ソフトウェア開発プロセスの非効率性に対処するために開発された。
論文 参考訳(メタデータ) (2025-08-13T10:09:45Z) - Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - COCO: Testing Code Generation Systems via Concretized Instructions [33.13427092832396]
COCOは、コード生成システムの堅牢性をテストする技術である。
これは、コード生成システムの使用シナリオを利用して、元のプログラミング命令をより具体的にする。
我々はCOCOをCopilotやChatGPTといった商用ツールを含む8つの先進的なコード生成システムで評価した。
論文 参考訳(メタデータ) (2023-08-25T11:49:27Z) - Large Language Models of Code Fail at Completing Code with Potential
Bugs [30.80172644795715]
リアルタイムコード提案に触発されたバグコード補完問題について検討する。
潜在的なバグの存在は、高性能なCode-LLMの生成性能を著しく低下させる。
論文 参考訳(メタデータ) (2023-06-06T06:35:27Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。