論文の概要: On Developers' Self-Declaration of AI-Generated Code: An Analysis of Practices
- arxiv url: http://arxiv.org/abs/2504.16485v1
- Date: Wed, 23 Apr 2025 07:52:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.039644
- Title: On Developers' Self-Declaration of AI-Generated Code: An Analysis of Practices
- Title(参考訳): 開発者によるAI生成コードの自己宣言について:実践分析
- Authors: Syed Mohammad Kashif, Peng Liang, Amjed Tahir,
- Abstract要約: この研究は、開発者がAI生成コードの自己宣言に使用する方法を理解することを目的としている。
私たちはGitHubからAI生成コードスニペットの613のインスタンスを収集しました。
私たちの研究は、開発者がAI生成コードを自己宣言するプラクティスを明らかにしました。
- 参考スコア(独自算出の注目度): 2.655152359733829
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI code generation tools have gained significant popularity among developers, who use them to assist in software development due to their capability to generate code. Existing studies mainly explored the quality, e.g., correctness and security, of AI-generated code, while in real-world software development, the prerequisite is to distinguish AI-generated code from human-written code, which emphasizes the need to explicitly declare AI-generated code by developers. To this end, this study intends to understand the ways developers use to self-declare AI-generated code and explore the reasons why developers choose to self-declare or not. We conducted a mixed-methods study consisting of two phases. In the first phase, we mined GitHub repositories and collected 613 instances of AI-generated code snippets. In the second phase, we conducted a follow-up industrial survey, which received 111 valid responses. Our research revealed the practices followed by developers to self-declare AI-generated code. Most practitioners (76.6%) always or sometimes self-declare AI-generated code. In contrast, other practitioners (23.4%) noted that they never self-declare AI-generated code. The reasons for self-declaring AI-generated code include the need to track and monitor the code for future review and debugging, and ethical considerations. The reasons for not self-declaring AI-generated code include extensive modifications to AI-generated code and the developers' perception that self-declaration is an unnecessary activity. We finally provided guidelines for practitioners to self-declare AI-generated code, addressing ethical and code quality concerns.
- Abstract(参考訳): AIコード生成ツールは、コードを生成する能力のため、ソフトウェア開発を支援するためにそれを使用する開発者の間で大きな人気を集めている。
既存の研究では、AI生成コードの品質、例えば、正確性、セキュリティについて主に研究されているが、現実のソフトウェア開発では、AI生成コードと人間が書いたコードとの区別が必須であり、開発者がAI生成コードを明確に宣言する必要性を強調している。
この目的のために、この研究は、開発者がAI生成コードの自己宣言に使用する方法を理解し、開発者が自己宣言するかどうかを選択する理由を探ることを目的としている。
2段階からなる混合メソドス法を施行した。
第1フェーズでは、GitHubリポジトリをマイニングし、613のAI生成コードスニペットを収集しました。
第2段階では, 産業調査を行い, 有効回答は111件であった。
私たちの研究は、開発者がAI生成コードを自己宣言するプラクティスを明らかにしました。
ほとんどの実践者(76.6%)は、常に、時には自己宣言型のAI生成コードである。
対照的に、他の実践者(23.4%)は、AI生成コードの自己宣言は決してないと述べた。
AI生成コードの自己宣言の理由は、将来のレビューとデバッグのためのコードの追跡と監視の必要性、倫理的考慮である。
AI生成コードの自己宣言を行わない理由は、AI生成コードの広範な修正と、開発者が自己宣言は不要な活動であると考えることにある。
最終的に私たちは、倫理的およびコード品質の懸念に対処する、AI生成コードの自己宣言のためのガイドラインを実践者に提供しました。
関連論文リスト
- From Teacher to Colleague: How Coding Experience Shapes Developer Perceptions of AI Tools [0.0]
AI支援の開発ツールは生産性の向上とコード品質の向上を約束するが、開発者による採用は相容れない。
我々は、3380人の開発者による調査データを分析し、コーディングエクスペリエンスがAIの認識、採用、開発者がワークフローでAIに割り当てる役割にどのように関係しているかを調べます。
論文 参考訳(メタデータ) (2025-04-08T08:58:06Z) - Could AI Trace and Explain the Origins of AI-Generated Images and Text? [53.11173194293537]
AI生成コンテンツは、現実の世界ではますます普及している。
敵は、大規模なマルチモーダルモデルを利用して、倫理的または法的基準に違反した画像を作成するかもしれない。
ペーパーレビュアーは、大きな言語モデルを誤用して、真の知的努力なしにレビューを生成する。
論文 参考訳(メタデータ) (2025-04-05T20:51:54Z) - Do Comments and Expertise Still Matter? An Experiment on Programmers' Adoption of AI-Generated JavaScript Code [8.436321697240682]
AI生成コードの採用は、AI生成ソリューションと参加者が提出したソリューションのコード類似性によって評価された。
その結果,コメントの存在は,参加者の開発専門知識に関わらず,プログラマのAI生成コードの採用に大きく影響していることがわかった。
論文 参考訳(メタデータ) (2025-03-14T14:42:51Z) - The Shift from Writing to Pruning Software: A Bonsai-Inspired IDE for Reshaping AI Generated Code [11.149764135999437]
AIによるコーディングアシスタントの台頭は、ソフトウェアの構築方法の根本的な変化を示している。
AIコーディングアシスタントは既存の統合開発環境に統合されているが、その潜在能力の大部分は未完成である。
そこで我々は,従来のファイル構造を使わずに,AIが真に制約のない形式で生成できるIDEの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-03-04T17:57:26Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
誤分類は、偽の盗作行為の告発や、オンラインコンテンツにおけるAIの普及に関する誤解を招く可能性がある。
我々は、AI-Polished-Text Evaluationデータセットを用いて、最先端の11のAIテキスト検出を体系的に評価した。
我々の発見によると、検出器は、最小限に磨き上げられたテキストをAI生成と誤分類し、AIの関与度を区別し、古いモデルと小さなモデルに偏見を示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - An Empirical Study on Automatically Detecting AI-Generated Source Code: How Far Are We? [8.0988059417354]
本稿では,AI生成コード検出の性能向上のための様々な手法を提案する。
我々の最良のモデルは最先端のAI生成コード検出器(GPTSniffer)より優れており、F1スコアは82.55である。
論文 参考訳(メタデータ) (2024-11-06T22:48:18Z) - Does Co-Development with AI Assistants Lead to More Maintainable Code? A Registered Report [6.7428644467224]
本研究は,AIアシスタントがソフトウェア保守性に与える影響を検討することを目的とする。
フェーズ1では、開発者はAIアシスタントの助けなしに、Javaプロジェクトに新しい機能を追加する。
ランダム化されたコントロールされた試行のフェーズ2では、さまざまな開発者がランダムフェーズ1プロジェクトを進化させ、AIアシスタントなしで作業する。
論文 参考訳(メタデータ) (2024-08-20T11:48:42Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Students' Perspective on AI Code Completion: Benefits and Challenges [2.936007114555107]
学生の視点から,AIコード補完のメリット,課題,期待について検討した。
その結果,AIコード補完は,正しい構文提案を提供することで,学生の生産性と効率を向上させることがわかった。
将来的には、AIコード補完は説明可能であり、教育プロセスを強化するための最高のコーディングプラクティスを提供するべきである。
論文 参考訳(メタデータ) (2023-10-31T22:41:16Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - Ethics in AI through the Practitioner's View: A Grounded Theory
Literature Review [12.941478155592502]
近年、AI開発における倫理的問題のプロファイルが高まり、私たちの日常生活におけるAI技術の普及に対する世間の懸念が高まっている。
我々は,AI実践者のAI倫理観を含む,38の初等実証研究の根拠的理論文献レビュー(GTLR)を行った。
我々は,AI倫理の異なる側面を特定し,理解する上で,実践者の視点からAI倫理の分類を提示する。
論文 参考訳(メタデータ) (2022-06-20T00:28:51Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。