論文の概要: "TODO: Fix the Mess Gemini Created": Towards Understanding GenAI-Induced Self-Admitted Technical Debt
- arxiv url: http://arxiv.org/abs/2601.07786v1
- Date: Mon, 12 Jan 2026 17:59:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.725012
- Title: "TODO: Fix the Mess Gemini Created": Towards Understanding GenAI-Induced Self-Admitted Technical Debt
- Title(参考訳): ToDO: Fix the Mess Gemini Created”:GenAIによる自己申告技術的負債の理解を目指して
- Authors: Abdullah Al Mujahid, Mia Mohammad Imran,
- Abstract要約: GenAI-induced Self-admitted Technical debt (GIST)は、開発者がAI生成コードを組み込んだ反復的なケースを記述し、その振る舞いや正確性に関する不確実性を明確に表現する概念レンズである。
- 参考スコア(独自算出の注目度): 2.571080266714288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) such as ChatGPT, Copilot, Claude, and Gemini become integrated into software development workflows, developers increasingly leave traces of AI involvement in their code comments. Among these, some comments explicitly acknowledge both the use of generative AI and the presence of technical shortcomings. Analyzing 6,540 LLM-referencing code comments from public Python and JavaScript-based GitHub repositories (November 2022-July 2025), we identified 81 that also self-admit technical debt(SATD). Developers most often describe postponed testing, incomplete adaptation, and limited understanding of AI-generated code, suggesting that AI assistance affects both when and why technical debt emerges. We term GenAI-Induced Self-admitted Technical debt (GIST) as a proposed conceptual lens to describe recurring cases where developers incorporate AI-generated code while explicitly expressing uncertainty about its behavior or correctness.
- Abstract(参考訳): ChatGPT、Copilot、Claude、Geminiといった大規模言語モデル(LLM)がソフトウェア開発ワークフローに統合されるにつれ、開発者はコードコメントにAIが関与する痕跡をますます残している。
これらのうち一部のコメントは、生成AIの使用と技術的な欠点の存在の両方を明確に認めている。
パブリックPythonとJavaScriptベースのGitHubリポジトリ(2022年11月~2025年7月)から6,540のLCM参照コードコメントを分析して、自己承認技術的負債(SATD)も81に特定しました。
開発者は多くの場合、延期されたテスト、不完全な適応、AI生成コードの限定的な理解を記述し、AIアシストが技術的負債の発生時期と理由の両方に影響を与えることを示唆している。
我々は、開発者がAI生成コードを組み込んで、その動作や正確性に関する不確実性を明確に表現する、反復的なケースを記述するための概念レンズとして、GenAI誘導技術的負債(GIST)を言及する。
関連論文リスト
- Comment Traps: How Defective Commented-out Code Augment Defects in AI-Assisted Code Generation [40.52928802861937]
GitHub CopilotとCursorは、ソフトウェア開発プラクティスに革命をもたらしている。
これまでの研究は、コードのコンテキストが欠陥コードの生成にどのように影響するかを主に調査してきた。
この研究は、AIコーディングアシスタントであるGitHub CopilotとCursorがどのように欠陥のあるCOコードに影響されているかを評価する。
論文 参考訳(メタデータ) (2025-12-23T13:08:19Z) - On Developers' Self-Declaration of AI-Generated Code: An Analysis of Practices [2.205621813527632]
この研究は、開発者がAI生成コードの自己宣言に使用する方法を理解することを目的としている。
第1フェーズでは、GitHubからAI生成コードスニペットの613のインスタンスを収集しました。
第2フェーズでは,フォローアップ実践者の調査を行い,有効回答は111件であった。
論文 参考訳(メタデータ) (2025-04-23T07:52:39Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Investigating Explainability of Generative AI for Code through
Scenario-based Design [44.44517254181818]
生成AI(GenAI)技術は成熟し、ソフトウェア工学のようなアプリケーションドメインに適用されています。
私たちは43人のソフトウェアエンジニアと9つのワークショップを開催しました。そこでは、最先端のジェネレーティブAIモデルの実例を使って、ユーザの説明可能性のニーズを導き出しました。
我々の研究は、GenAIのコードに対する説明可能性の必要性を探求し、新しいドメインにおけるXAIの技術開発を人間中心のアプローチがいかに促進するかを実証する。
論文 参考訳(メタデータ) (2022-02-10T08:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。