論文の概要: Multifaceted Hierarchical Report Identification for Non-Functional Bugs
in Deep Learning Frameworks
- arxiv url: http://arxiv.org/abs/2210.01855v1
- Date: Tue, 4 Oct 2022 18:49:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 15:04:51.360724
- Title: Multifaceted Hierarchical Report Identification for Non-Functional Bugs
in Deep Learning Frameworks
- Title(参考訳): ディープラーニングフレームワークにおける非Functional Bugsの多面的階層的レポート識別
- Authors: Guoming Long, Tao Chen, Georgina Cosma
- Abstract要約: ディープラーニング(DL)フレームワークにおける非機能バグ関連レポートを自動的に識別するエンドツーエンドツールであるMHNurfを提案する。
MHNurfの中核は、3つの未解決課題に取り組むMHAN(Multifaceted Hierarchical Attention Network)である。
MHNurfはコンテンツ、コメント、コードの組み合わせでベストを尽くしている。
- 参考スコア(独自算出の注目度): 5.255197438986675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-functional bugs (e.g., performance- or accuracy-related bugs) in Deep
Learning (DL) frameworks can lead to some of the most devastating consequences.
Reporting those bugs on a repository such as GitHub is a standard route to fix
them. Yet, given the growing number of new GitHub reports for DL frameworks, it
is intrinsically difficult for developers to distinguish those that reveal
non-functional bugs among the others, and assign them to the right contributor
for investigation in a timely manner. In this paper, we propose MHNurf - an
end-to-end tool for automatically identifying non-functional bug related
reports in DL frameworks. The core of MHNurf is a Multifaceted Hierarchical
Attention Network (MHAN) that tackles three unaddressed challenges: (1)
learning the semantic knowledge, but doing so by (2) considering the hierarchy
(e.g., words/tokens in sentences/statements) and focusing on the important
parts (i.e., words, tokens, sentences, and statements) of a GitHub report,
while (3) independently extracting information from different types of
features, i.e., content, comment, code, command, and label.
To evaluate MHNurf, we leverage 3,721 GitHub reports from five DL frameworks
for conducting experiments. The results show that MHNurf works the best with a
combination of content, comment, and code, which considerably outperforms the
classic HAN where only the content is used. MHNurf also produces significantly
more accurate results than nine other state-of-the-art classifiers with strong
statistical significance, i.e., up to 71% AUC improvement and has the best
Scott-Knott rank on four frameworks while 2nd on the remaining one. To
facilitate reproduction and promote future research, we have made our dataset,
code, and detailed supplementary results publicly available at:
https://github.com/ideas-labo/APSEC2022-MHNurf.
- Abstract(参考訳): ディープラーニング(DL)フレームワークの非機能バグ(例えば、パフォーマンスや精度に関するバグ)は、最も破壊的な結果をもたらす可能性がある。
GitHubのようなリポジトリにバグを報告することは、修正するための標準的な方法である。
しかし、DLフレームワークに関するGitHubの新しいレポートが増えていることを考えると、開発者が機能しないバグを他のものと区別し、タイムリーに調査のために適切なコントリビュータに割り当てることは本質的に困難である。
本稿では,DLフレームワークの非機能バグ関連レポートを自動的に識別するエンドツーエンドツールであるMHNurfを提案する。
mhnurfの中核は多面的階層的注意ネットワーク(mhan)であり、(1)意味的知識を学ぶが、(2)階層(例えば、文/文中の単語/分岐)を考慮し、githubレポートの重要な部分(言葉、トークン、文、文)に集中し、(3)異なる種類の特徴、すなわちコンテンツ、コメント、コード、コマンド、ラベルから情報を抽出する。
MHNurfを評価するために、5つのDLフレームワークから3,721のGitHubレポートを活用して実験を行った。
その結果、MHNurfはコンテンツ、コメント、コードの組み合わせでベストに機能し、コンテンツのみを使用する古典的HANよりもかなり優れています。
MHNurfは他の9つの最先端の分類器よりもはるかに正確な結果、すなわち71% AUCの改善、そして4つのフレームワークで最高のScott-Knottランクを持つ。
再現と今後の研究を促進するため、データセット、コード、詳細な補足結果をhttps://github.com/ideas-labo/apsec2022-mhnurfで公開しました。
関連論文リスト
- Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - Pink: Unveiling the Power of Referential Comprehension for Multi-modal
LLMs [49.88461345825586]
本稿では,MLLMの微細な画像理解能力を高めるための新しい枠組みを提案する。
本稿では,既存のデータセットのアノテーションを活用して,命令チューニングデータセットを低コストで構築する手法を提案する。
本研究では,Qwen-VLよりも5.2%精度が向上し,Kosmos-2の精度が24.7%向上したことを示す。
論文 参考訳(メタデータ) (2023-10-01T05:53:15Z) - Auto-labelling of Bug Report using Natural Language Processing [0.0]
ルールとクエリベースのソリューションは、明確なランキングのない、潜在的な類似バグレポートの長いリストを推奨します。
本論文では,NLP手法の組み合わせによる解を提案する。
カスタムデータトランスフォーマー、ディープニューラルネットワーク、および非汎用機械学習メソッドを使用して、既存の同一バグレポートを検索する。
論文 参考訳(メタデータ) (2022-12-13T02:32:42Z) - Explaining Software Bugs Leveraging Code Structures in Neural Machine
Translation [5.079750706023254]
Bugsplainerは、バグ修正コミットの大規模なコーパスから学ぶことによって、ソフトウェアバグの自然言語説明を生成する。
3つのパフォーマンス指標を用いて評価したところ、BugsplainerはGoogleの標準に従って理解しやすく良い説明を生成できることがわかった。
また、Bugsplainerによる説明がベースラインよりも正確で、より正確で、より有用であることが判明した、20人の参加者を対象にした開発者スタディも実施しました。
論文 参考訳(メタデータ) (2022-12-08T22:19:45Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - Automatic Classification of Bug Reports Based on Multiple Text
Information and Reports' Intention [37.67372105858311]
本稿では,バグレポートの自動分類手法を提案する。
イノベーションは、バグレポートを分類する際に、レポートのテキスト情報に加えて、レポートの意図も考慮することである。
提案手法は性能が向上し,F-Measureは87.3%から95.5%に向上した。
論文 参考訳(メタデータ) (2022-08-02T06:44:51Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - Neural Code Summarization: How Far Are We? [30.324396716447602]
ディープラーニング技術を利用して、与えられたコードスニペットの要約を自動的に生成する。
本稿では,5つの最先端のニューラルネットワークの要約モデルについて,系統的かつ詳細な解析を行う。
論文 参考訳(メタデータ) (2021-07-15T04:33:59Z) - Scarecrow: A Framework for Scrutinizing Machine Text [69.26985439191151]
我々はScarecrowと呼ばれる新しい構造化されたクラウドソースエラーアノテーションスキーマを導入する。
Scarecrowは1.3kの人文と機械が生成する英語ニューステキストの13kのアノテーションを収集する。
これらの結果は,現在および将来のテキスト生成システムの評価において,Scarecrowアノテーションの価値を示すものである。
論文 参考訳(メタデータ) (2021-07-02T22:37:03Z) - S3M: Siamese Stack (Trace) Similarity Measure [55.58269472099399]
本稿では、深層学習に基づくスタックトレースの類似性を計算する最初のアプローチであるS3Mを紹介します。
BiLSTMエンコーダと、類似性を計算するための完全接続型分類器をベースとしている。
私たちの実験は、オープンソースデータとプライベートなJetBrainsデータセットの両方において、最先端のアプローチの優位性を示しています。
論文 参考訳(メタデータ) (2021-03-18T21:10:41Z) - Advaita: Bug Duplicity Detection System [1.9624064951902522]
重複バグ率(重複バグの%)は、製品の成熟度、コードのサイズ、プロジェクトに取り組んでいるエンジニアの数に基づいて、1桁(1~9%)から2桁(40%)の範囲にある。
重複の検出は、2つのバグが同じ意味を持つかどうかを識別する。
このアプローチでは、基本的なテキスト統計的特徴、意味的特徴、文脈的特徴など、複数の機能セットを考慮に入れている。
論文 参考訳(メタデータ) (2020-01-24T04:48:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。