論文の概要: Measuring Improvement of F$_1$-Scores in Detection of Self-Admitted
Technical Debt
- arxiv url: http://arxiv.org/abs/2303.09617v1
- Date: Thu, 16 Mar 2023 19:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:37:19.567009
- Title: Measuring Improvement of F$_1$-Scores in Detection of Self-Admitted
Technical Debt
- Title(参考訳): 自励式技術的負債検出におけるF$_1$スコアの改善の測定
- Authors: William Aiken, Paul K. Mvula, Paula Branco, Guy-Vincent Jourdan,
Mehrdad Sabetzadeh, Herna Viktor
- Abstract要約: 変換器(BERT)アーキテクチャからの双方向表現を利用した新しいアプローチによりSATDの検出を改善する。
トレーニングされたBERTモデルは、プロジェクト横断シナリオにおいて、20プロジェクト中19プロジェクトにおいて、以前のすべてのメソッドの最高のパフォーマンスよりも改善されていることが分かりました。
今後の研究では、SATDデータセットを多様化して、大きなBERTモデルの潜伏電力を最大化する方法について検討する予定である。
- 参考スコア(独自算出の注目度): 5.750379648650073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence and Machine Learning have witnessed rapid,
significant improvements in Natural Language Processing (NLP) tasks. Utilizing
Deep Learning, researchers have taken advantage of repository comments in
Software Engineering to produce accurate methods for detecting Self-Admitted
Technical Debt (SATD) from 20 open-source Java projects' code. In this work, we
improve SATD detection with a novel approach that leverages the Bidirectional
Encoder Representations from Transformers (BERT) architecture. For comparison,
we re-evaluated previous deep learning methods and applied stratified 10-fold
cross-validation to report reliable F$_1$-scores. We examine our model in both
cross-project and intra-project contexts. For each context, we use re-sampling
and duplication as augmentation strategies to account for data imbalance. We
find that our trained BERT model improves over the best performance of all
previous methods in 19 of the 20 projects in cross-project scenarios. However,
the data augmentation techniques were not sufficient to overcome the lack of
data present in the intra-project scenarios, and existing methods still perform
better. Future research will look into ways to diversify SATD datasets in order
to maximize the latent power in large BERT models.
- Abstract(参考訳): 人工知能と機械学習は、自然言語処理(NLP)タスクの迅速で重要な改善を目撃している。
Deep Learningを利用すると、研究者はソフトウェア工学におけるリポジトリのコメントを利用して、20のオープンソースプロジェクトのコードから自己承認技術的負債(SATD)を検出する正確な方法を作り出した。
本研究では,変換器(BERT)アーキテクチャによる双方向エンコーダ表現を利用した新しいアプローチによりSATD検出を改善する。
比較のために,従来のディープラーニング手法を再評価し,信頼度の高いF$_1$-scoresを報告するために,階層化された10倍のクロスバリデーションを適用した。
プロジェクト間のコンテキストとプロジェクト内コンテキストの両方でモデルを検証する。
各コンテキストでは、データの不均衡を考慮するために、再サンプリングと重複を拡張戦略として使用します。
トレーニングされたbertモデルは、クロスプロジェクトシナリオの20プロジェクトのうちの19プロジェクトにおいて、以前のすべてのメソッドの最高のパフォーマンスを向上しています。
しかし、データ拡張技術はプロジェクト内シナリオに存在するデータの欠如を克服するには不十分であり、既存の方法の方が優れている。
将来の研究は、大規模なbertモデルの潜在パワーを最大化するために、satdデータセットを多様化する方法を検討する。
関連論文リスト
- BoostAdapter: Improving Vision-Language Test-Time Adaptation via Regional Bootstrapping [64.8477128397529]
本稿では,テスト時間適応フレームワークを提案する。
我々は、インスタンスに依存しない履歴サンプルとインスタンスを意識したブースティングサンプルから特徴を検索するための軽量なキー値メモリを維持している。
理論的には,本手法の背後にある合理性を正当化し,アウト・オブ・ディストリビューションとクロスドメイン・データセットの両方において,その有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-20T15:58:43Z) - In-Context Code-Text Learning for Bimodal Software Engineering [26.0027882745058]
バイモーダルなソフトウェア分析は、大きな言語モデルの出現とともに、当初は手の届くところにあるように見えた。
コードテキストのバイモーダル性に対するコンテキスト内学習は有望な道であると仮定する。
我々は、23のソフトウェアエンジニアリングタスクを含む多様なデータセットを考察し、コンテキスト内学習フォーマットで変換する。
論文 参考訳(メタデータ) (2024-10-08T19:42:00Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Self-Admitted Technical Debt Detection Approaches: A Decade Systematic Review [5.670597842524448]
技術的負債 (Technical debt, TD) とは、ソフトウェア開発において、最適な設計やコード決定に関連する長期的なコストを表す用語である。
開発者がこれらのトレードオフを明確に認めると、SATD(Self-Admitted Technical Debt)が発生する。
SATDの自動検出は、ますます重要な研究領域となっている。
論文 参考訳(メタデータ) (2023-12-19T12:01:13Z) - Weighted Ensemble Self-Supervised Learning [67.24482854208783]
組み立ては、モデルパフォーマンスを高めるための強力なテクニックであることが証明されている。
我々は,データ依存型重み付きクロスエントロピー損失を許容するフレームワークを開発した。
提案手法は、ImageNet-1K上での複数の評価指標において、両者に優れる。
論文 参考訳(メタデータ) (2022-11-18T02:00:17Z) - Deep Active Ensemble Sampling For Image Classification [8.31483061185317]
アクティブラーニングフレームワークは、最も有益なデータポイントのラベル付けを積極的に要求することで、データアノテーションのコストを削減することを目的としている。
提案手法には、不確実性に基づく手法、幾何学的手法、不確実性に基づく手法と幾何学的手法の暗黙の組み合わせなどがある。
本稿では, サンプル選択戦略における効率的な探索・探索トレードオフを実現するために, 不確実性に基づくフレームワークと幾何学的フレームワークの両方の最近の進歩を革新的に統合する。
本フレームワークは,(1)正確な後続推定,(2)計算オーバーヘッドと高い精度のトレードオフの2つの利点を提供する。
論文 参考訳(メタデータ) (2022-10-11T20:20:20Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Passive Batch Injection Training Technique: Boosting Network Performance
by Injecting Mini-Batches from a different Data Distribution [39.8046809855363]
この研究は、元の入力データとは異なる分布から追加のデータを利用するディープニューラルネットワークの新しいトレーニング手法を提案する。
私たちの知る限りでは、畳み込みニューラルネットワーク(CNN)のトレーニングを支援するために、異なるデータ分散を利用する最初の研究である。
論文 参考訳(メタデータ) (2020-06-08T08:17:32Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。