論文の概要: "Estimating software project effort using analogies": Reflections after 28 years
- arxiv url: http://arxiv.org/abs/2501.14582v2
- Date: Thu, 30 Jan 2025 16:44:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 11:53:04.902218
- Title: "Estimating software project effort using analogies": Reflections after 28 years
- Title(参考訳): 『類推によるソフトウェアプロジェクト努力の推定』--28年後の振り返り
- Authors: Martin Shepperd,
- Abstract要約: 本稿は, (i) 達成されたこと, (ii) 耐えられたこと, (iii) 振り返りの利点によって達成できたことについて検討する。
当初の研究では、ベンチマーク、サンプル外テスト、データ/ツールの共有による実証的な検証を強調していた。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Background: This invited paper is the result of an invitation to write a retrospective article on a "TSE most influential paper" as part of the journal's 50th anniversary. Objective: To reflect on the progress of software engineering prediction research using the lens of a selected, highly cited research paper and 28 years of hindsight. Methods: The paper examines (i) what was achieved, (ii) what has endured and (iii) what could have been done differently with the benefit of retrospection. Conclusions: While many specifics of software project effort prediction have evolved, key methodological issues remain relevant. The original study emphasised empirical validation with benchmarks, out-of-sample testing and data/tool sharing. Four areas for improvement are identified: (i) stronger commitment to Open Science principles, (ii) focus on effect sizes and confidence intervals, (iii) reporting variability alongside typical results and (iv) more rigorous examination of threats to validity.
- Abstract(参考訳): 背景: この招待論文は、同誌の50周年記念として、「TSEで最も影響力のある論文」の回顧記事を書くよう招待された結果である。
目的: 選択された高度に引用された研究論文と28年間の後見によるソフトウェア工学予測研究の進展を反映する。
方法:論文が調べる
(i)達成されたもの
(二) 耐え難いもの
三 振り返りの便益によりできること
結論: ソフトウェアプロジェクトの取り組み予測の多くの具体例が進化しましたが、重要な方法論上の問題は依然として関連しています。
当初の研究では、ベンチマーク、サンプル外テスト、データ/ツールの共有による実証的な検証を強調していた。
改善のための4つの領域が特定される。
(i)オープンサイエンスの原則への強いコミットメント。
(二)効果の大きさ及び信頼区間に焦点を当てる。
三 典型的な結果と並んで変動を報告すること
(4)より厳格な妥当性に対する脅威の検査。
関連論文リスト
- Optimizing Research Portfolio For Semantic Impact [55.2480439325792]
サイテーション指標は学術的影響を評価するために広く用いられているが、社会的偏見に悩まされている。
本稿では,研究効果を予測する新しいフレームワークであるrXiv Semantic Impact (XSI)を紹介する。
XSIは学術知識グラフにおける研究概念の進化を追跡している。
論文 参考訳(メタデータ) (2025-02-19T17:44:13Z) - Qualitative Research Methods in Software Engineering: Past, Present, and Future [15.223983256335426]
1999年にTSEで論文Qualitative Methods in Empirical Studies of Software Engineeringが出版された。
TSEの50年の歴史の中で、最も影響力のある論文の1つに選ばれた。
論文 参考訳(メタデータ) (2025-02-11T03:25:58Z) - A Call for Critically Rethinking and Reforming Data Analysis in Empirical Software Engineering [5.687882380471718]
経験的方法論の正しい適用に関する懸念は、2006年のDagtuhl Seminar on Empirical Software Engineeringから存在する。
LLMを用いて,27,000件の実証研究の文献調査を行い,統計的方法論を適切あるいは不十分と分類した。
我々は,30の初等研究を選定し,統計問題を特定し,解決する能力を評価するために,33人のESE専門家とワークショップを開催した。
論文 参考訳(メタデータ) (2025-01-22T09:05:01Z) - RelevAI-Reviewer: A Benchmark on AI Reviewers for Survey Paper Relevance [0.8089605035945486]
本稿では,調査論文レビューの課題を分類問題として概念化するシステムであるRelevAI-Reviewerを提案する。
25,164のインスタンスからなる新しいデータセットを導入する。各インスタンスには1つのプロンプトと4つの候補論文があり、それぞれがプロンプトに関連している。
我々は,各論文の関連性を判断し,最も関連性の高い論文を識別できる機械学習(ML)モデルを開発した。
論文 参考訳(メタデータ) (2024-06-13T06:42:32Z) - Are LLMs Capable of Data-based Statistical and Causal Reasoning? Benchmarking Advanced Quantitative Reasoning with Data [89.2410799619405]
実世界のデータを用いた統計的および因果推論において,大規模言語モデルの能力を評価するために,データベンチマークを用いた定量的推論を導入する。
このベンチマークは、教科書、オンライン学習教材、学術論文のデータシートを伴う411の質問のデータセットで構成されている。
データとテキストに対するモデルの量的推論能力を比較するために、ベンチマークを290のテキストのみの質問、すなわちQRTextで強化する。
論文 参考訳(メタデータ) (2024-02-27T16:15:03Z) - Chain-of-Factors Paper-Reviewer Matching [32.86512592730291]
本稿では,意味的・話題的・引用的要因を協調的に考慮した,論文レビューアマッチングのための統一モデルを提案する。
提案したChain-of-Factorsモデルの有効性を,最先端のペーパー-リビューアマッチング手法と科学的事前学習言語モデルと比較した。
論文 参考訳(メタデータ) (2023-10-23T01:29:18Z) - Deep Learning for Agile Effort Estimation Have We Solved the Problem
Yet? [7.808390209137859]
私たちは、Deep Learningを使ってアジャイルの取り組みを見積もるセミナルな作業の、密なレプリケーションと拡張を行います。
私たちは、Deep-SEを3つのベースラインテクニックと、以前に提案されたアジャイルソフトウェア開発の取り組みを見積もる手法に対してベンチマークします。
より多くのデータを使用することで、結果に対する信頼性を強化し、研究の外的妥当性に対する脅威をさらに軽減できます。
論文 参考訳(メタデータ) (2022-01-14T11:38:51Z) - Ranking Scientific Papers Using Preference Learning [48.78161994501516]
我々はこれをピアレビューテキストとレビュアースコアに基づく論文ランキング問題とみなした。
ピアレビューに基づいて最終決定を行うための,新しい多面的総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-02T19:41:47Z) - A Survey on Text Classification: From Shallow to Deep Learning [83.47804123133719]
過去10年は、ディープラーニングが前例のない成功を収めたために、この分野の研究が急増している。
本稿では,1961年から2021年までの最先端のアプローチを見直し,そのギャップを埋める。
特徴抽出と分類に使用されるテキストとモデルに基づいて,テキスト分類のための分類を作成する。
論文 参考訳(メタデータ) (2020-08-02T00:09:03Z) - Sentiment Analysis Based on Deep Learning: A Comparative Study [69.09570726777817]
世論の研究は我々に貴重な情報を提供することができる。
感情分析の効率性と正確性は、自然言語処理で直面する課題によって妨げられている。
本稿では、感情分析の問題を解決するためにディープラーニングを用いた最新の研究をレビューする。
論文 参考訳(メタデータ) (2020-06-05T16:28:10Z) - Recognizing Families In the Wild: White Paper for the 4th Edition Data
Challenge [91.55319616114943]
本稿では,Recognizing Families In the Wild(RFIW)評価における支援課題(親族検証,三対象検証,行方不明児の検索・検索)を要約する。
本研究の目的は、2020年のRFIWチャレンジと、将来的な方向性の予測について述べることである。
論文 参考訳(メタデータ) (2020-02-15T02:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。