論文の概要: Agile Software Effort Estimation using Regression Techniques
- arxiv url: http://arxiv.org/abs/2510.04760v1
- Date: Mon, 06 Oct 2025 12:37:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.855219
- Title: Agile Software Effort Estimation using Regression Techniques
- Title(参考訳): 回帰手法によるアジャイルソフトウェアの評価
- Authors: Sisay Deresa Sima, Ayalew Belay Habtie,
- Abstract要約: 実験の結果,LASSO回帰は予測性能のPreD (8%) とPreD (25%) は100.0,MMREは0.0491,MMERは0.0551,MdMREは0.0593,MdMERは0.063,MSEは0.00007であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software development effort estimation is one of the most critical aspect in software development process, as the success or failure of the entire project depends on the accuracy of estimations. Researchers are still conducting studies on agile effort estimation. The aim of this research is to develop a story point based agile effort estimation model using LASSO and Elastic Net regression techniques. The experimental work is applied to the agile story point approach using 21 software projects collected from six firms. The two algorithms are trained using their default parameters and tuned grid search with 5-fold cross-validation to get an enhanced model. The experiment result shows LASSO regression achieved better predictive performance PRED (8%) and PRED (25%) results of 100.0, MMRE of 0.0491, MMER of 0.0551, MdMRE of 0.0593, MdMER of 0.063, and MSE of 0.0007. The results are also compared with other related literature.
- Abstract(参考訳): ソフトウェア開発の取り組みの推定は、プロジェクト全体の成功や失敗が見積もりの正確さに依存するため、ソフトウェア開発プロセスにおいて最も重要な側面の1つです。
研究者はまだアジャイルの取り組みの推定について研究を続けている。
本研究の目的は,LASSOとElastic Net回帰技術を用いて,ストーリーポイントに基づくアジャイル活動推定モデルを開発することである。
実験的な作業は、6つの企業から収集された21のソフトウェアプロジェクトを使用して、アジャイルのストーリーポイントアプローチに適用されます。
2つのアルゴリズムは、デフォルトパラメータと5倍のクロスバリデーションで調整されたグリッドサーチを使用してトレーニングされ、強化されたモデルが得られる。
実験の結果,LASSO回帰は予測性能のPreD (8%) とPreD (25%) は100.0,MMREは0.0491,MMERは0.0551,MdMREは0.0593,MdMERは0.063,MSEは0.00007であった。
結果は、他の関連文献と比較される。
関連論文リスト
- From Static to Dynamic: Adaptive Monte Carlo Search for Mathematical Process Supervision [49.59309446816251]
既存手法は, 定予算サンプリング戦略に基づいて, 推論ステップの質を推定する。
本稿では,データ生成を静的から適応に変換するフレームワークであるAdaptive Monte Carlo Search (AMCS)を提案する。
AMCSは、より多くのサンプルを不確実な推論ステップに割り当てることによって、予測を適応的に洗練し、予測しやすくする。
論文 参考訳(メタデータ) (2025-09-29T06:52:35Z) - Reinforcement Learning for Reasoning in Large Language Models with One Training Example [133.018487956408]
1つのトレーニング例(1ショットRLVR)を用いた強化学習は,大規模言語モデル(LLM)の数学的推論能力の向上に有効であることを示す。
1ショットRLVRにおける興味深い現象として、クロスドメインの一般化、自己回帰の頻度の増大、トレーニング精度が飽和した後もテスト性能の向上が維持されていることを挙げる。
論文 参考訳(メタデータ) (2025-04-29T09:24:30Z) - CARE: Confidence-Aware Regression Estimation of building density fine-tuning EO Foundation Models [0.9558392439655016]
本研究は、回帰出力とともに信頼度を計算・割り当てするEO衛星データを用いたファンデーションモデルの開発である。
このモデルCAREは、EOデータに対するファンデーションモデルの下流タスクとして回帰結果に対する信頼度を算出し、低信頼領域に対する信頼度を考慮した自己補正学習手法を実行する。
論文 参考訳(メタデータ) (2025-02-19T14:02:00Z) - HackerRank-ASTRA: Evaluating Correctness & Consistency of Large Language Models on cross-domain multi-file project problems [2.4241401076864]
HackerRank-ASTRA Benchmarkでは、実際のシナリオを反映したプロジェクトベースのコーディング問題が導入されている。
モデル一貫性を32ラン(k = 32)と中央標準偏差で評価する。
上位3モデル(o1、o1-preview、Claude-3.5-Sonnet-1022)は75%のスコアを記録した。
論文 参考訳(メタデータ) (2025-01-31T23:47:02Z) - Critical Tokens Matter: Token-Level Contrastive Estimation Enhances LLM's Reasoning Capability [53.51560766150442]
臨界トークンは推論軌道内の要素であり、誤った結果に大きな影響を及ぼす。
本稿では,これらのトークンをロールアウトサンプリングによって識別する新しいフレームワークを提案する。
クリティカルトークンの識別と置換がモデル精度を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-11-29T18:58:22Z) - LLM4DS: Evaluating Large Language Models for Data Science Code Generation [0.0]
本稿では、Microsoft Copilot(GPT-4 Turbo)、ChatGPT(o1-preview)、Claude(3.5 Sonnet)、Perplexity Labs(Llama-3.1-70b-instruct)の4つの主要なAIアシスタントの性能を実証的に評価する。
すべてのモデルが50%の成功率を超え、ランダムなチャンスを超えた能力が確認された。
ChatGPTは様々な難易度で一貫した性能を示し、クロードの成功率はタスクの複雑さによって変動した。
論文 参考訳(メタデータ) (2024-11-16T18:43:26Z) - Lingma SWE-GPT: An Open Development-Process-Centric Language Model for Automated Software Improvement [62.94719119451089]
Lingma SWE-GPTシリーズは、現実世界のコード提出活動から学び、シミュレーションする。
Lingma SWE-GPT 72BはGitHubの30.20%の問題を解決する。
論文 参考訳(メタデータ) (2024-11-01T14:27:16Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - RLocator: Reinforcement Learning for Bug Localization [1.9854146581797698]
強化学習に基づくバグローカライゼーション手法であるRLocatorを提案する。
6つの人気のあるApacheプロジェクトからの8,316のバグレポートのベンチマークデータセットに基づいて、実験的に評価した。
RLocatorは平均相互ランク(MRR)が0.62、平均精度(MAP)が0.59、トップ1スコアが0.46となる。
論文 参考訳(メタデータ) (2023-05-09T16:19:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。