論文の概要: PromptDebt: A Comprehensive Study of Technical Debt Across LLM Projects
- arxiv url: http://arxiv.org/abs/2509.20497v1
- Date: Wed, 24 Sep 2025 19:20:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.558278
- Title: PromptDebt: A Comprehensive Study of Technical Debt Across LLM Projects
- Title(参考訳): PromptDebt: LLMプロジェクト全体での技術的負債に関する総合的研究
- Authors: Ahmed Aljohani, Hyunsook Do,
- Abstract要約: 大規模言語モデル(LLM)はOpenAIを通じてソフトウェアに組み込まれており、重いインフラストラクチャなしで強力なAI機能を提供する。
しかし、これらの統合は独自の形で自己承認技術的負債(SATD)をもたらす。
本稿では,SATDの大規模実証研究として,その起源,有病率,緩和戦略について紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly embedded in software via APIs like OpenAI, offering powerful AI features without heavy infrastructure. Yet these integrations bring their own form of self-admitted technical debt (SATD). In this paper, we present the first large-scale empirical study of LLM-specific SATD: its origins, prevalence, and mitigation strategies. By analyzing 93,142 Python files across major LLM APIs, we found that 54.49% of SATD instances stem from OpenAI integrations and 12.35% from LangChain use. Prompt design emerged as the primary source of LLM-specific SATD, with 6.61% of debt related to prompt configuration and optimization issues, followed by hyperparameter tuning and LLM-framework integration. We further explored which prompt techniques attract the most debt, revealing that instruction-based prompts (38.60%) and few-shot prompts (18.13%) are particularly vulnerable due to their dependence on instruction clarity and example quality. Finally, we release a comprehensive SATD dataset to support reproducibility and offer practical guidance for managing technical debt in LLM-powered systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、OpenAIのようなAPIを通じてソフトウェアに組み込まれ、重いインフラストラクチャなしで強力なAI機能を提供する。
しかし、これらの統合は独自の形で自己承認技術的負債(SATD)をもたらします。
本稿では, LLM 固有のSATD の起源, 頻度, 緩和戦略について, 大規模な実証研究を行った。
LLM APIをまたいだ93,142のPythonファイルを解析した結果、SATDインスタンスの54.49%はOpenAI統合によるもので、12.35%はLangChainの使用によるものであることが判明した。
プロンプト設計はLSM固有のSATDの主要なソースとして現れ、6.61%の負債が迅速な設定と最適化の問題に関係し、続いてハイパーパラメータチューニングとLCMフレームワークの統合が続いた。
さらに、命令に基づくプロンプト(38.60%)と少数ショットプロンプト(18.13%)が、命令の明確さやサンプルの品質に依存しているため、特に脆弱であることを明らかにする。
最後に、再現性をサポートし、LLMシステムにおける技術的負債を管理するための実用的なガイダンスを提供するための包括的なSATDデータセットをリリースする。
関連論文リスト
- Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - The Promise and Limits of LLMs in Constructing Proofs and Hints for Logic Problems in Intelligent Tutoring Systems [4.146233417549798]
大規模言語モデル(LLM)は動的フィードバック生成に有望な機能を提供する。
LLMは幻覚を発生させるリスクを負う。
DeepSeek-V3は、段階的な証明構築において84.4%の精度で優れた性能を達成した。
論文 参考訳(メタデータ) (2025-05-07T18:48:23Z) - MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale [66.73529246309033]
MLLM(Multimodal large language model)は、多モーダルタスクにおいて大きな可能性を秘めている。
既存の命令チューニングデータセットは、中間的合理性のないフレーズレベルの答えのみを提供する。
そこで本研究では,大規模マルチモーダル・インストラクション・チューニング・データセットを構築するためのスケーラブルで費用対効果の高い手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T18:14:24Z) - Unsupervised Text Representation Learning via Instruction-Tuning for Zero-Shot Dense Retrieval [19.422003299376]
命令チューニングによる教師なしテキスト表現学習手法を提案する。
関連する合成クエリの表現によってコーパス表現を拡張できることを実証する。
我々は,全指標の平均ゼロショット検索性能を著しく改善した。
論文 参考訳(メタデータ) (2024-09-24T23:03:13Z) - A Multi-Agent Approach to Fault Localization via Graph-Based Retrieval and Reflexion [8.22737389683156]
従来のフォールトローカライゼーション技術は、広範なトレーニングデータセットと高い計算資源を必要とする。
大規模言語モデル(LLM)の最近の進歩は、コード理解と推論を強化することで、新たな機会を提供する。
LLM4FLは3つの特殊なLLMエージェントを利用するマルチエージェントの故障局所化フレームワークである。
14のJavaプロジェクトから675の障害を含むDefects4Jベンチマークで評価され、LLM4FLはAutoFLよりも18.55%、SoapFLより4.82%、Top-1の精度が18.55%向上した。
論文 参考訳(メタデータ) (2024-09-20T16:47:34Z) - zkLLM: Zero Knowledge Proofs for Large Language Models [6.993329554241878]
ZkLLMは、大規模言語モデル(LLM)に適した特別なゼロ知識証明である。
モデルパラメータのプライバシを保護し、不注意な情報漏洩を確実にするように設計されている。
論文 参考訳(メタデータ) (2024-04-24T18:04:50Z) - Take a Step Back: Evoking Reasoning via Abstraction in Large Language
Models [122.19845578690466]
Step-Back Promptingは、LLMが抽象化を行い、特定の詳細を含むインスタンスから高レベルの概念と第一原則を導出することを可能にする。
推論を導くために概念と原則を用いることで、LLMはソリューションへの正しい推論パスに従うことで、その能力を大幅に向上します。
論文 参考訳(メタデータ) (2023-10-09T19:48:55Z) - How Effective are Large Language Models in Generating Software Specifications? [14.170320751508502]
大規模言語モデル(LLM)は多くのソフトウェア工学(SE)タスクにうまく適用されている。
ソフトウェアコメントやドキュメンテーションからソフトウェア仕様を生成するためのLCMの能力を評価するための、最初の実証的研究を行う。
論文 参考訳(メタデータ) (2023-06-06T00:28:39Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。