論文の概要: Multi-View Adaptive Contrastive Learning for Information Retrieval Based Fault Localization
- arxiv url: http://arxiv.org/abs/2409.12519v1
- Date: Thu, 19 Sep 2024 07:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 14:30:28.556787
- Title: Multi-View Adaptive Contrastive Learning for Information Retrieval Based Fault Localization
- Title(参考訳): 情報検索に基づくフォールトローカライゼーションのための多視点適応型コントラスト学習
- Authors: Chunying Zhou, Xiaoyuan Xie, Gong Chen, Peng He, Bing Li,
- Abstract要約: MACL-IRFL(Multi-View Adaptive Contrastive Learning for Information Retrieval Fault Localization)という新しい手法を提案する。
まず、レポート・コード・インタラクション・ビュー、レポート・レポートの類似性ビュー、コード・コードの共引用ビューを別々に生成し、グラフニューラルネットワークを用いて、埋め込みプロセスの3つのビューからバグレポートやソースコードファイルの情報を集約する。
コントラスト学習タスクの設計では,バグレポートの表現は,レポートレポートやレポートコードビューで共有される情報をエンコードし,ソースコードファイルの表現はコードコードとレポートコードビューで共有する。
- 参考スコア(独自算出の注目度): 5.1987901165589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most studies focused on information retrieval-based techniques for fault localization, which built representations for bug reports and source code files and matched their semantic vectors through similarity measurement. However, such approaches often ignore some useful information that might help improve localization performance, such as 1) the interaction relationship between bug reports and source code files; 2) the similarity relationship between bug reports; and 3) the co-citation relationship between source code files. In this paper, we propose a novel approach named Multi-View Adaptive Contrastive Learning for Information Retrieval Fault Localization (MACL-IRFL) to learn the above-mentioned relationships for software fault localization. Specifically, we first generate data augmentations from report-code interaction view, report-report similarity view and code-code co-citation view separately, and adopt graph neural network to aggregate the information of bug reports or source code files from the three views in the embedding process. Moreover, we perform contrastive learning across these views. Our design of contrastive learning task will force the bug report representations to encode information shared by report-report and report-code views,and the source code file representations shared by code-code and report-code views, thereby alleviating the noise from auxiliary information. Finally, to evaluate the performance of our approach, we conduct extensive experiments on five open-source Java projects. The results show that our model can improve over the best baseline up to 28.93%, 25.57% and 20.35% on Accuracy@1, MAP and MRR, respectively.
- Abstract(参考訳): たいていの研究では、バグレポートやソースコードファイルの表現を構築し、類似度測定によってそれらの意味ベクトルと一致したフォールトローカライゼーションのための情報検索に基づく手法に焦点を当てている。
しかし、そのようなアプローチは、ローカライズ性能を改善するのに役立ついくつかの有用な情報を無視することが多い。
1) バグ報告とソースコードファイルの相互関係
2 バグ報告の類似性関係及び
3)ソースコードファイル間の共引用関係。
本稿では,Multi-View Adaptive Contrastive Learning for Information Retrieval Fault Localization (MACL-IRFL) という手法を提案する。
具体的には、まず、レポート-コード相互作用ビュー、レポート-レポート類似ビュー、コード-コード共引用ビューを別々に生成し、グラフニューラルネットワークを用いて、埋め込みプロセスにおける3つのビューからバグレポートやソースコードファイルの情報を集約する。
さらに,これらの観点から,コントラスト学習を実施している。
コントラスト学習タスクの設計では,バグレポート表現に対して,レポートレポートやレポートコードビューで共有される情報をエンコードし,コードコードやレポートコードビューで共有されるソースコードファイルの表現を強制的に行うことで,補助情報からノイズを緩和する。
最後に、我々のアプローチの性能を評価するために、5つのオープンソースのJavaプロジェクトで広範な実験を行います。
その結果,我々のモデルでは,Accuracy@1,MAP,MRRでそれぞれ28.93%,25.57%,20.35%の改善が可能であった。
関連論文リスト
- The All-Seeing Project V2: Towards General Relation Comprehension of the Open World [58.40101895719467]
本稿では,画像のオブジェクト関係を理解するために設計された新しいモデルとデータセットであるAll-Seeing Project V2を紹介する。
本稿では,テキスト生成,オブジェクトローカライゼーション,関係理解の定式化を関係会話タスクに統合するAll-Seeing Model V2を提案する。
我々のモデルは、画像内の全ての物体を知覚・認識するだけでなく、それらの間の複雑な関係グラフの把握にも優れている。
論文 参考訳(メタデータ) (2024-02-29T18:59:17Z) - Enhancing Source Code Representations for Deep Learning with Static
Analysis [10.222207222039048]
本稿では,静的解析とバグレポートやデザインパターンなどのコンテキストを,ディープラーニングモデルのためのソースコード表現に統合する方法について検討する。
我々はASTNN(Abstract Syntax Tree-based Neural Network)法を用いて,バグレポートやデザインパターンから得られたコンテキスト情報を追加して拡張する。
提案手法はソースコードの表現と処理を改善し,タスク性能を向上させる。
論文 参考訳(メタデータ) (2024-02-14T20:17:04Z) - On Using GUI Interaction Data to Improve Text Retrieval-based Bug
Localization [10.717184444794505]
エンドユーザー向けアプリケーションでは、バグレポート内の情報とGUIの情報とを結びつけることにより、既存のバグローカライゼーション技術を改善することができるという仮説を考察する。
当社は,Androidアプリの完全ローカライズおよび再現可能な真のバグに関する現在の最大のデータセットを,対応するバグレポートとともに公開しています。
論文 参考訳(メタデータ) (2023-10-12T07:14:22Z) - Auto-labelling of Bug Report using Natural Language Processing [0.0]
ルールとクエリベースのソリューションは、明確なランキングのない、潜在的な類似バグレポートの長いリストを推奨します。
本論文では,NLP手法の組み合わせによる解を提案する。
カスタムデータトランスフォーマー、ディープニューラルネットワーク、および非汎用機械学習メソッドを使用して、既存の同一バグレポートを検索する。
論文 参考訳(メタデータ) (2022-12-13T02:32:42Z) - FactGraph: Evaluating Factuality in Summarization with Semantic Graph
Representations [114.94628499698096]
文書と要約を構造化された意味表現(MR)に分解するFactGraphを提案する。
MRは、コアセマンティックの概念とその関係を記述し、文書と要約の両方の主要な内容を標準形式で集約し、データの疎結合を減少させる。
事実性を評価するための異なるベンチマークの実験では、FactGraphは以前のアプローチよりも最大15%優れていた。
論文 参考訳(メタデータ) (2022-04-13T16:45:33Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - S3M: Siamese Stack (Trace) Similarity Measure [55.58269472099399]
本稿では、深層学習に基づくスタックトレースの類似性を計算する最初のアプローチであるS3Mを紹介します。
BiLSTMエンコーダと、類似性を計算するための完全接続型分類器をベースとしている。
私たちの実験は、オープンソースデータとプライベートなJetBrainsデータセットの両方において、最先端のアプローチの優位性を示しています。
論文 参考訳(メタデータ) (2021-03-18T21:10:41Z) - Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction [84.64435075778988]
本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
論文 参考訳(メタデータ) (2020-11-27T06:21:12Z) - A Transformer-based Approach for Source Code Summarization [86.08359401867577]
コードトークン間のペア関係をモデル化することにより,要約のためのコード表現を学習する。
アプローチは単純であるにもかかわらず、最先端技術よりもかなりの差があることが示される。
論文 参考訳(メタデータ) (2020-05-01T23:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。