論文の概要: SE3M: A Model for Software Effort Estimation Using Pre-trained Embedding
Models
- arxiv url: http://arxiv.org/abs/2006.16831v1
- Date: Tue, 30 Jun 2020 14:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:13:00.807559
- Title: SE3M: A Model for Software Effort Estimation Using Pre-trained Embedding
Models
- Title(参考訳): SE3M: 事前学習した埋め込みモデルを用いたソフトウェア活動推定モデル
- Authors: Eliane M. De Bortoli F\'avero and Dalcimar Casanova and Andrey Ricardo
Pimentel
- Abstract要約: 本稿では,事前学習した埋め込みモデルの有効性を評価する。
両方のアプローチでトレーニング済みのジェネリックモデルは、微調整プロセスを経ている。
テスト結果は非常に有望で、事前トレーニングされたモデルを使用して、要求テキストのみに基づいてソフトウェアの労力を見積もることができることに気付きました。
- 参考スコア(独自算出の注目度): 0.8287206589886881
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Estimating effort based on requirement texts presents many challenges,
especially in obtaining viable features to infer effort. Aiming to explore a
more effective technique for representing textual requirements to infer effort
estimates by analogy, this paper proposes to evaluate the effectiveness of
pre-trained embeddings models. For this, two embeddings approach, context-less
and contextualized models are used. Generic pre-trained models for both
approaches went through a fine-tuning process. The generated models were used
as input in the applied deep learning architecture, with linear output. The
results were very promising, realizing that pre-trained incorporation models
can be used to estimate software effort based only on requirements texts. We
highlight the results obtained to apply the pre-trained BERT model with
fine-tuning in a single project repository, whose value is the Mean Absolute
Error (MAE) is 4.25 and the standard deviation of only 0.17, which represents a
result very positive when compared to similar works. The main advantages of the
proposed estimation method are reliability, the possibility of generalization,
speed, and low computational cost provided by the fine-tuning process, and the
possibility to infer new or existing requirements.
- Abstract(参考訳): 要求テキストに基づく労力の推定は、特に努力を推測する実行可能な機能を得る上で、多くの課題を提起する。
そこで本研究では, テキスト要求を表現し, 作業推定をアナログで推定する手法について検討し, 事前学習した埋め込みモデルの有効性について検討する。
このために、2つの組込みアプローチ、コンテキストレスモデルとコンテキスト化モデルが使用される。
両方のアプローチでトレーニング済みのジェネリックモデルは、微調整プロセスを経ている。
生成したモデルは、線形出力を持つ応用ディープラーニングアーキテクチャの入力として使用された。
この結果は非常に有望で、事前訓練された組込みモデルが要求テキストのみに基づいてソフトウェアの労力を見積もることができることに気付きました。
本稿では,単一のプロジェクトリポジトリに細調整で事前学習したBERTモデルを適用した結果,平均絶対誤差(MAE)は4.25で,標準偏差は0.17で,類似の作業と比較すると非常に肯定的な結果を示す。
提案手法の主な利点は, 信頼性, 一般化の可能性, 速度, 微調整プロセスによる計算コストの低減, 新たな要件や既存の要件を推測できることである。
関連論文リスト
- Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - fairml: A Statistician's Take on Fair Machine Learning Modelling [0.0]
本稿では,これまでの研究(Scutari, Panero, Proissl 2022)および関連モデルを文献で実装したfairmlパッケージについて述べる。
Fairmlは古典的な統計モデルと ペナル化された回帰結果に基づいて設計されています
フェアネスを強制するために使われる制約は、推定をモデル化することであり、望まれるモデルファミリと各アプリケーションに対するフェアネス定義の混合とマッチングを可能にする。
論文 参考訳(メタデータ) (2023-05-03T09:59:53Z) - Evaluating Representations with Readout Model Switching [19.907607374144167]
本稿では,最小記述長(MDL)の原理を用いて評価指標を考案する。
我々は、読み出しモデルのためのハイブリッド離散および連続値モデル空間を設計し、それらの予測を組み合わせるために切替戦略を用いる。
提案手法はオンライン手法で効率的に計算でき,様々なアーキテクチャの事前学習された視覚エンコーダに対する結果を示す。
論文 参考訳(メタデータ) (2023-02-19T14:08:01Z) - Post-Selection Confidence Bounds for Prediction Performance [2.28438857884398]
機械学習では、潜在的に多くの競合モデルから有望なモデルを選択し、その一般化性能を評価することが重要な課題である。
本稿では,評価セットの予測性能に基づいて選択された複数のモデルに対して,有効な低信頼境界を求めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-24T13:28:43Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Self-Training of Handwritten Word Recognition for Synthetic-to-Real
Adaptation [4.111899441919165]
そこで本研究では,手書きテキスト認識モデルを学習するための自己学習手法を提案する。
提案手法は、合成データに基づいて訓練された初期モデルを用いて、ラベルなしターゲットデータセットの予測を行う。
提案手法は,広範に使用されている4つのベンチマークデータセットに対して評価し,完全に教師された方法で訓練されたモデルとのギャップを埋めることの有効性を示す。
論文 参考訳(メタデータ) (2022-06-07T09:43:25Z) - End-to-End Weak Supervision [15.125993628007972]
下流モデルを直接学習するためのエンドツーエンドアプローチを提案する。
下流テストセットにおけるエンドモデル性能の観点から,先行作業よりも性能が向上したことを示す。
論文 参考訳(メタデータ) (2021-07-05T19:10:11Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。