論文の概要: "TODO: Fix the Mess Gemini Created": Towards Understanding GenAI-Induced Self-Admitted Technical Debt
- arxiv url: http://arxiv.org/abs/2601.07786v1
- Date: Mon, 12 Jan 2026 17:59:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.725012
- Title: "TODO: Fix the Mess Gemini Created": Towards Understanding GenAI-Induced Self-Admitted Technical Debt
- Title(参考訳): ToDO: Fix the Mess Gemini Created”:GenAIによる自己申告技術的負債の理解を目指して
- Authors: Abdullah Al Mujahid, Mia Mohammad Imran,
- Abstract要約: GenAI-induced Self-admitted Technical debt (GIST)は、開発者がAI生成コードを組み込んだ反復的なケースを記述し、その振る舞いや正確性に関する不確実性を明確に表現する概念レンズである。
- 参考スコア(独自算出の注目度): 2.571080266714288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) such as ChatGPT, Copilot, Claude, and Gemini become integrated into software development workflows, developers increasingly leave traces of AI involvement in their code comments. Among these, some comments explicitly acknowledge both the use of generative AI and the presence of technical shortcomings. Analyzing 6,540 LLM-referencing code comments from public Python and JavaScript-based GitHub repositories (November 2022-July 2025), we identified 81 that also self-admit technical debt(SATD). Developers most often describe postponed testing, incomplete adaptation, and limited understanding of AI-generated code, suggesting that AI assistance affects both when and why technical debt emerges. We term GenAI-Induced Self-admitted Technical debt (GIST) as a proposed conceptual lens to describe recurring cases where developers incorporate AI-generated code while explicitly expressing uncertainty about its behavior or correctness.
- Abstract(参考訳): ChatGPT、Copilot、Claude、Geminiといった大規模言語モデル(LLM)がソフトウェア開発ワークフローに統合されるにつれ、開発者はコードコメントにAIが関与する痕跡をますます残している。
これらのうち一部のコメントは、生成AIの使用と技術的な欠点の存在の両方を明確に認めている。
パブリックPythonとJavaScriptベースのGitHubリポジトリ(2022年11月~2025年7月)から6,540のLCM参照コードコメントを分析して、自己承認技術的負債(SATD)も81に特定しました。
開発者は多くの場合、延期されたテスト、不完全な適応、AI生成コードの限定的な理解を記述し、AIアシストが技術的負債の発生時期と理由の両方に影響を与えることを示唆している。
我々は、開発者がAI生成コードを組み込んで、その動作や正確性に関する不確実性を明確に表現する、反復的なケースを記述するための概念レンズとして、GenAI誘導技術的負債(GIST)を言及する。
関連論文リスト
- Beyond Explainable AI (XAI): An Overdue Paradigm Shift and Post-XAI Research Directions [95.59915390053588]
本研究では、ディープニューラルネットワーク(DNN)と大規模言語モデル(LLM)に焦点をあてる、説明可能な人工知能(XAI)アプローチに焦点を当てる。
より深い根本原因に起因する致命的な症状(2つのパラドックス、2つの概念的混乱、5つの誤った仮定)について論じる。
XAIの限界を超えて、信頼性と認定されたAI開発に向けた4つのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2026-02-27T16:58:27Z) - Mitigating "Epistemic Debt" in Generative AI-Scaffolded Novice Programming using Metacognitive Scripts [0.0]
制限のないAIは、初心者にスキーマ形成に必要な固有の認知負荷をアウトソースするように促す。
成功しているビブコーダが自然に自己スケーリングを行い、契約者ではなくコンサルタントとしてAIを扱います。
今後の学習システムは,保守不能なコードの大量生産を防止するためにメタ認知摩擦を強制する必要がある。
論文 参考訳(メタデータ) (2026-02-22T21:25:04Z) - Comment Traps: How Defective Commented-out Code Augment Defects in AI-Assisted Code Generation [40.52928802861937]
GitHub CopilotとCursorは、ソフトウェア開発プラクティスに革命をもたらしている。
これまでの研究は、コードのコンテキストが欠陥コードの生成にどのように影響するかを主に調査してきた。
この研究は、AIコーディングアシスタントであるGitHub CopilotとCursorがどのように欠陥のあるCOコードに影響されているかを評価する。
論文 参考訳(メタデータ) (2025-12-23T13:08:19Z) - Vibe Coding in Practice: Motivations, Challenges, and a Future Outlook -- a Grey Literature Review [2.5195922470930614]
バイブコーディング(Vibe coding)とは、AIコード生成ツールを直感や試行錯誤を通じて、基礎となるコードを必ずしも理解せずに使用するプラクティスである。
ユーザーがなぜバイブコーディングに関わったのか、何を経験しているか、品質保証(QA)にどのようにアプローチし、AI生成コードの品質を知覚するかを体系的に調査した研究はない。
私たちの分析では、スピードとアクセシビリティによってビブコーダがモチベーションを得て、迅速な即時的な成功とフローを経験する"という、スピード品質のトレードオフパラドックスを明らかにしています。
論文 参考訳(メタデータ) (2025-09-30T22:35:00Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - On Developers' Self-Declaration of AI-Generated Code: An Analysis of Practices [2.205621813527632]
この研究は、開発者がAI生成コードの自己宣言に使用する方法を理解することを目的としている。
第1フェーズでは、GitHubからAI生成コードスニペットの613のインスタンスを収集しました。
第2フェーズでは,フォローアップ実践者の調査を行い,有効回答は111件であった。
論文 参考訳(メタデータ) (2025-04-23T07:52:39Z) - Do Comments and Expertise Still Matter? An Experiment on Programmers' Adoption of AI-Generated JavaScript Code [8.673467364360857]
AI生成コードの採用は、AI生成ソリューションと参加者が提出したソリューションのコード類似性によって評価された。
その結果、関数レベルのプログラミングタスクのコンテキストにおいて、コメントの存在がプログラマのAI生成コードの採用に大きく影響していることが判明した。
論文 参考訳(メタデータ) (2025-03-14T14:42:51Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Investigating Explainability of Generative AI for Code through
Scenario-based Design [44.44517254181818]
生成AI(GenAI)技術は成熟し、ソフトウェア工学のようなアプリケーションドメインに適用されています。
私たちは43人のソフトウェアエンジニアと9つのワークショップを開催しました。そこでは、最先端のジェネレーティブAIモデルの実例を使って、ユーザの説明可能性のニーズを導き出しました。
我々の研究は、GenAIのコードに対する説明可能性の必要性を探求し、新しいドメインにおけるXAIの技術開発を人間中心のアプローチがいかに促進するかを実証する。
論文 参考訳(メタデータ) (2022-02-10T08:52:39Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。