論文の概要: Software Fault Localization Based on Multi-objective Feature Fusion and Deep Learning
- arxiv url: http://arxiv.org/abs/2411.17101v1
- Date: Tue, 26 Nov 2024 04:37:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:36:42.252298
- Title: Software Fault Localization Based on Multi-objective Feature Fusion and Deep Learning
- Title(参考訳): 多目的特徴融合とディープラーニングに基づくソフトウェア故障の局在化
- Authors: Xiaolei Hu, Dongcheng Li, W. Eric Wong, Ya Zou,
- Abstract要約: ソフトウェアのフォールトローカライゼーションは、機能の多様性が制限され、従来の手法の精度が低いため、依然として困難である。
本稿では,多目的最適化を深層学習モデルに統合し,フォールトローカライゼーション(FL)の精度と効率を両立させる手法を提案する。
- 参考スコア(独自算出の注目度): 1.6724380665811045
- License:
- Abstract: Software fault localization remains challenging due to limited feature diversity and low precision in traditional methods. This paper proposes a novel approach that integrates multi-objective optimization with deep learning models to improve both accuracy and efficiency in fault localization (FL). By framing feature selection as a multi-objective optimization problem (MOP), we extract and fuse three critical fault-related feature sets: spectrum-based, mutation-based, and text-based features, into a comprehensive feature fusion model. These features are then embedded within a deep learning architecture, comprising a multilayer perceptron (MLP) and gated recurrent network (GRN), which together enhance localization accuracy and generalizability. Experiments on the Defects4J benchmark dataset with 434 faults show that the proposed algorithm reduces processing time by 78.2% compared to single-objective methods. Additionally, our MLP and GRN models achieve a 94.2% improvement in localization accuracy compared to traditional FL methods, outperforming state-of-the-art deep learning-based FL method by 7.67%. Further validation using the PROMISE dataset demonstrates the generalizability of the proposed model, showing a 4.6% accuracy improvement in cross-project tests over state-of-the-art deep learning-based FL method.
- Abstract(参考訳): ソフトウェアのフォールトローカライゼーションは、機能の多様性が制限され、従来の手法の精度が低いため、依然として困難である。
本稿では,多目的最適化を深層学習モデルに統合し,フォールトローカライゼーション(FL)の精度と効率を両立させる手法を提案する。
多目的最適化問題(MOP)としての機能選択をフレーミングすることにより、スペクトルベース、突然変異ベース、テキストベースの3つの重要な機能セットを総合的な機能融合モデルに抽出し、融合する。
これらの機能は、多層パーセプトロン(MLP)とゲートリカレントネットワーク(GRN)で構成されるディープラーニングアーキテクチャに組み込まれ、ローカライズ精度と一般化性を向上させる。
434故障を伴うDefects4Jベンチマークデータセットの実験では、提案アルゴリズムは単一目的の手法と比較して処理時間を78.2%削減している。
さらに,我々のMLPおよびGRNモデルは,従来のFL法と比較して94.2%の精度向上を実現し,最先端のディープラーニングに基づくFL法を7.67%上回った。
PROMISEデータセットを用いたさらなる検証は、提案モデルの一般化可能性を示し、最先端のディープラーニングベースのFL法よりも4.6%の精度でクロスプロジェクトテストを改善することを示す。
関連論文リスト
- Dynamic Noise Preference Optimization for LLM Self-Improvement via Synthetic Data [51.62162460809116]
我々は、イテレーション間で一貫した改善を保証するために、動的ノイズ優先最適化(DNPO)を導入します。
Zephyr-7Bでの実験では、DNPOは既存の手法を一貫して上回り、平均性能は2.6%向上した。
DNPOは、GPT-4評価のベースラインに比べて29.4%のウィンロス率差で、モデル生成データの品質が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-02-08T01:20:09Z) - Few-Shot Optimized Framework for Hallucination Detection in Resource-Limited NLP Systems [1.0124625066746595]
本稿では,DeepSeek Few-shotの最適化を導入し,反復的なプロンプトエンジニアリングによりラベル生成の弱さを高める。
下流モデルの性能を大幅に向上させる高品質なアノテーションを実現する。
さらに、これらの最適化アノテーションに基づいてMistral-7B-Instruct-v0.3モデルを微調整し、リソース制限設定における幻覚を正確に検出する。
論文 参考訳(メタデータ) (2025-01-28T01:26:22Z) - Inference Scaling vs Reasoning: An Empirical Analysis of Compute-Optimal LLM Problem-Solving [0.0]
大規模言語モデル(LLM)の最近の進歩は、精度と推論能力の最大化に重点を置いている。
本稿では,2つの対照的なアプローチの統合を解析することにより,推論の強化と計算効率の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-12-20T08:42:45Z) - Learnable Sparse Customization in Heterogeneous Edge Computing [27.201987866208484]
異種フェデレート学習(FedLPS)のための学習可能なパーソナライズ・スパシフィケーションを提案する。
FedLPSは、局所データ表現におけるモデルユニットの重要性を学び、パーソナライズされたデータ特徴を正確に抽出するために、最小限の重要度に基づくスパースパターンを導出する。
実験により、FedLPSは精度とトレーニングコストにおいてステータスクオアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-10T06:14:31Z) - MBL-CPDP: A Multi-objective Bilevel Method for Cross-Project Defect Prediction via Automated Machine Learning [34.89241736003651]
クロスプロジェクト欠陥予測(CPDP)は、機械学習(ML)技術を活用して、特にプロジェクト固有のデータが不足しているソフトウェア欠陥を積極的に識別する。
本稿では,MBL-CPDPと呼ばれる多目的二段階最適化(MBLO)手法としてCPDPを定式化する。
これには、上層階、多目的最適化問題、下層階問題、高価な最適化問題という2つのネスト問題が含まれている。
論文 参考訳(メタデータ) (2024-11-10T15:17:15Z) - LLMs for Domain Generation Algorithm Detection [0.0]
本研究では,大規模言語モデル(LLM)を用いてドメイン生成アルゴリズム(DGA)の検出を行う。
In-Context Learning (ICL) と Supervised Fine-Tuning (SFT) はどのように検出を改善するかを示す。
特に、SFTベースのLDM DGA検出器は注目層を用いた最先端モデルよりも優れ、4%の偽陽性率(FPR)で94%の精度を実現している。
論文 参考訳(メタデータ) (2024-11-05T18:01:12Z) - Predictor-Corrector Enhanced Transformers with Exponential Moving Average Coefficient Learning [73.73967342609603]
トラクションエラーを最小限に抑えるための予測-相関学習フレームワークを提案する。
また、高次予測器を強化するために、指数関数的移動平均ベース係数学習法を提案する。
我々のモデルは3.8BのDeepNetを平均2.9のSacreBLEUで上回り、1/3のパラメータしか使用していない。
論文 参考訳(メタデータ) (2024-11-05T12:26:25Z) - Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - Embedded feature selection in LSTM networks with multi-objective
evolutionary ensemble learning for time series forecasting [49.1574468325115]
本稿では,Long Short-Term Memory Networkに埋め込まれた特徴選択手法を提案する。
本手法はLSTMの重みと偏りを分割的に最適化する。
イタリアとスペイン南東部の大気質時系列データの実験的評価により,従来のLSTMの能力一般化が著しく向上することが確認された。
論文 参考訳(メタデータ) (2023-12-29T08:42:10Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。