論文の概要: What to Prioritize? Natural Language Processing for the Development of a
Modern Bug Tracking Solution in Hardware Development
- arxiv url: http://arxiv.org/abs/2109.13825v1
- Date: Tue, 28 Sep 2021 15:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 14:41:57.769420
- Title: What to Prioritize? Natural Language Processing for the Development of a
Modern Bug Tracking Solution in Hardware Development
- Title(参考訳): 優先順位は?
ハードウェア開発における最新のバグ追跡ソリューション開発のための自然言語処理
- Authors: Thi Thu Hang Do and Markus Dobler and Niklas K\"uhl
- Abstract要約: 我々は、異なる教師付き機械学習アルゴリズムを用いて、バグレポートの修正時間、リスク、複雑さを予測するアプローチを提案する。
評価の結果,Universal Sentenceモデルによって生成されたテキスト埋め込みの組み合わせは,他の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Managing large numbers of incoming bug reports and finding the most critical
issues in hardware development is time consuming, but crucial in order to
reduce development costs. In this paper, we present an approach to predict the
time to fix, the risk and the complexity of debugging and resolution of a bug
report using different supervised machine learning algorithms, namely Random
Forest, Naive Bayes, SVM, MLP and XGBoost. Further, we investigate the effect
of the application of active learning and we evaluate the impact of different
text representation techniques, namely TF-IDF, Word2Vec, Universal Sentence
Encoder and XLNet on the model's performance. The evaluation shows that a
combination of text embeddings generated through the Universal Sentence Encoder
and MLP as classifier outperforms all other methods, and is well suited to
predict the risk and complexity of bug tickets.
- Abstract(参考訳): 大量のバグレポートを管理し、ハードウェア開発で最も重要な問題を見つけることは、時間を要するが、開発コストを削減するために重要である。
本稿では,Random Forest, Naive Bayes, SVM, MLP, XGBoostという,異なる教師付き機械学習アルゴリズムを用いて,バグレポートの修正時間,修正のリスク,解決の複雑さを予測するためのアプローチを提案する。
さらに,能動学習の適用効果について検討し,TF-IDF,Word2Vec,Universal Sentence Encoder,XLNetといったテキスト表現技術がモデルの性能に与える影響を評価する。
評価の結果,Universal Sentence Encoder と MLP を併用したテキスト埋め込みは,他の手法よりも優れており,バグチケットのリスクや複雑さを予測するのに適していることがわかった。
関連論文リスト
- EnStack: An Ensemble Stacking Framework of Large Language Models for Enhanced Vulnerability Detection in Source Code [1.9374282535132379]
本稿では,自然言語処理(NLP)技術を用いた脆弱性検出を支援する,新たなアンサンブルスタックフレームワークであるEnStackを紹介する。
本手法は,コード理解に特化した複数の事前学習型大規模言語モデル(LLM)を相乗化する。
メタ分類器はそれぞれのLSMの強度を集約し、微妙で複雑な脆弱性を検知する包括的なモデルをもたらす。
論文 参考訳(メタデータ) (2024-11-25T16:47:10Z) - A Deep Dive into Large Language Models for Automated Bug Localization and Repair [12.756202755547024]
大規模言語モデル(LLM)は、自動プログラム修復(APR)など、様々なソフトウェアエンジニアリングタスクにおいて顕著な効果を示している。
本研究では,LSMを用いた自動バグ修正について深く検討する。
異なるLLMを用いてバグの局所化と修正を分離することにより、多様なコンテキスト情報の効果的な統合が可能になる。
Toggleは、CodeXGLUEコード改善ベンチマークで、新しい最先端(SOTA)パフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-04-17T17:48:18Z) - A Thorough Examination of Decoding Methods in the Era of LLMs [72.65956436513241]
復号法は、次世代の予測器から実用的なタスク解決器に言語モデルを変換する上で、必須の役割を果たす。
本稿では,大規模言語モデルの文脈における様々な復号法を包括的かつ多面的に分析する。
その結果,復号法の性能は特にタスク依存的であり,アライメント,モデルサイズ,量子化などの要因に影響されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-10T11:14:53Z) - A General Framework for Learning from Weak Supervision [93.89870459388185]
本稿では、新しいアルゴリズムを用いて、弱監督(GLWS)から学習するための一般的な枠組みを紹介する。
GLWSの中心は期待最大化(EM)の定式化であり、様々な弱い監督源を順応的に収容している。
また,EM計算要求を大幅に単純化する高度なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-02T21:48:50Z) - Resolving Crash Bugs via Large Language Models: An Empirical Study [20.32724670868432]
クラッシュバグは予期せぬプログラムの動作や終了を引き起こし、高優先度の解決を必要とする。
近年の大規模言語モデル(LLM)であるChatGPTは、様々な領域にまたがる例外的なパフォーマンスのため、大きな注目を集めている。
この研究は、ChatGPTの実際のクラッシュバグ解決能力に関する最初の調査を行い、コード関連および環境関連クラッシュバグのローカライズと修復の両面での有効性に焦点を当てた。
論文 参考訳(メタデータ) (2023-12-16T13:41:04Z) - Fast and Accurate Factual Inconsistency Detection Over Long Documents [19.86348214462828]
我々は,新しいチャンキング戦略を用いて,現実の不整合を検出するタスク非依存モデルであるSCALEを紹介する。
このアプローチは、様々なタスクや長い入力に対して、現実の不整合検出における最先端のパフォーマンスを実現する。
コードとデータはGitHubに公開しています。
論文 参考訳(メタデータ) (2023-10-19T22:55:39Z) - A Comparative Study of Transformer-based Neural Text Representation
Techniques on Bug Triaging [8.831760500324318]
我々は、バグトリアージのタスクにおいて、ファイントゥーントランスフォーマーベースの言語モデルに関する最初の調査の1つを提供している。
DeBERTaは、開発者とコンポーネントの割り当てのトリアージタスクの中で、最も効果的なテクニックです。
論文 参考訳(メタデータ) (2023-10-10T18:09:32Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - A Causal Framework to Quantify the Robustness of Mathematical Reasoning
with Language Models [81.15974174627785]
入力空間における直接的介入に対する頑健さと感度の観点から言語モデルの振舞いについて検討する。
しかし, GPT-3 Davinciモデル(175B)は, 他のGPTモデルと比較して, 頑健さと感度の両面で劇的な改善を実現している。
論文 参考訳(メタデータ) (2022-10-21T15:12:37Z) - Confident Adaptive Language Modeling [95.45272377648773]
CALMは、入力と生成時間ごとに異なる量の計算を動的に割り当てるフレームワークである。
ハイパフォーマンスを確実に維持しつつ、計算能力、潜在的スピードアップを最大3ドルまで削減する上で、我々のフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-14T17:00:19Z) - Contextual Model Aggregation for Fast and Robust Federated Learning in
Edge Computing [88.76112371510999]
フェデレーション学習は、ネットワークエッジにおける分散機械学習の第一候補である。
既存のアルゴリズムは、性能の緩やかな収束や堅牢性の問題に直面している。
そこで本稿では,損失低減に対する最適コンテキスト依存境界を実現するためのコンテキストアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T21:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。