論文の概要: SDPERL: A Framework for Software Defect Prediction Using Ensemble Feature Extraction and Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2412.07927v1
- Date: Tue, 10 Dec 2024 21:16:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:03:37.214550
- Title: SDPERL: A Framework for Software Defect Prediction Using Ensemble Feature Extraction and Reinforcement Learning
- Title(参考訳): SDPERL:アンサンブル特徴抽出と強化学習を用いたソフトウェア欠陥予測フレームワーク
- Authors: Mohsen Hesamolhokama, Amirahmad Shafiee, Mohammadreza Ahmadi Teshnizi, Mohammadamin Fazli Jafar Habibi,
- Abstract要約: 本稿では,ソフトウェア欠陥予測のための革新的なフレームワークを提案する。
アンサンブル特徴抽出と強化学習(RL)に基づく特徴選択を組み合わせる。
この作業は、ファイルレベルの粒度でこの問題に対処する最近の取り組みの1つだ、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Ensuring software quality remains a critical challenge in complex and dynamic development environments, where software defects can result in significant operational and financial risks. This paper proposes an innovative framework for software defect prediction that combines ensemble feature extraction with reinforcement learning (RL)--based feature selection. We claim that this work is among the first in recent efforts to address this challenge at the file-level granularity. The framework extracts diverse semantic and structural features from source code using five code-specific pre-trained models. Feature selection is enhanced through a custom-defined embedding space tailored to represent feature interactions, coupled with a pheromone table mechanism inspired by Ant Colony Optimization (ACO) to guide the RL agent effectively. Using the Proximal Policy Optimization (PPO) algorithm, the proposed method dynamically identifies the most predictive features for defect detection. Experimental evaluations conducted on the PROMISE dataset highlight the framework's superior performance on the F1-Score metric, achieving an average improvement of $6.25\%$ over traditional methods and baseline models across diverse datasets. This study underscores the potential for integrating ensemble learning and RL for adaptive and scalable defect prediction in modern software systems.
- Abstract(参考訳): ソフトウェア品質の保証は、ソフトウェア欠陥が重大な運用および財務上のリスクをもたらす、複雑で動的な開発環境において、依然として重要な課題である。
本稿では、アンサンブル特徴抽出と強化学習(RL)に基づく特徴選択を組み合わせたソフトウェア欠陥予測のための革新的なフレームワークを提案する。
この作業は、ファイルレベルの粒度でこの問題に対処する最近の取り組みの1つだ、と我々は主張する。
このフレームワークは、ソースコードから5つのコード固有の事前訓練モデルを使用して、多様な意味的特徴と構造的特徴を抽出する。
特徴選択は、RLエージェントを効果的に導くために、Ant Colony Optimization (ACO) にインスパイアされたフェロモンテーブル機構と組み合わせることで、特徴相互作用を表現するためにカスタマイズされた埋め込み空間によって強化される。
The Proximal Policy Optimization (PPO) algorithm, this proposed method that the most predictive features for defect detection。
PROMISEデータセットで実施された実験的評価では、F1-Scoreメトリックにおけるフレームワークの優れたパフォーマンスが強調され、さまざまなデータセットにわたる従来のメソッドやベースラインモデルよりも平均6.25\%向上した。
本研究では,現代ソフトウェアシステムにおける適応的かつスケーラブルな欠陥予測のためのアンサンブル学習とRLの統合の可能性を明らかにする。
関連論文リスト
- A Hybrid Sampling and Multi-Objective Optimization Approach for Enhanced Software Defect Prediction [3.407555189785573]
本稿では,ハイブリッドサンプリング技術と多目的最適化アルゴリズムを組み合わせた新しいSDPフレームワークを提案する。
提案モデルは,多目的最適化による特徴融合を適用し,一般化能力と予測の安定性を両立させる。
NASAとPROMISEリポジトリのデータセットで実施された実験は、提案されたハイブリッドサンプリングと多目的最適化アプローチがデータのバランスを改善し、冗長な特徴を排除し、予測精度を高めることを示した。
論文 参考訳(メタデータ) (2024-10-13T23:39:04Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Enhanced LFTSformer: A Novel Long-Term Financial Time Series Prediction Model Using Advanced Feature Engineering and the DS Encoder Informer Architecture [0.8532753451809455]
本研究では,拡張LFTSformerと呼ばれる長期金融時系列の予測モデルを提案する。
このモデルは、いくつかの重要なイノベーションを通じて、自分自身を区別する。
さまざまなベンチマークストックマーケットデータセットに関するシステマティックな実験は、強化LFTSformerが従来の機械学習モデルより優れていることを示している。
論文 参考訳(メタデータ) (2023-10-03T08:37:21Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - FAStEN: An Efficient Adaptive Method for Feature Selection and Estimation in High-Dimensional Functional Regressions [7.674715791336311]
本稿では,スパース関数オン・ファンクション回帰問題において特徴選択を行うための,新しい,柔軟な,超効率的なアプローチを提案する。
我々はそれをスカラー・オン・ファンクション・フレームワークに拡張する方法を示す。
AOMIC PIOP1による脳MRIデータへの応用について述べる。
論文 参考訳(メタデータ) (2023-03-26T19:41:17Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Reinforcement Learning from Diverse Human Preferences [68.4294547285359]
本稿では,人選好ラベルをクラウドソーシングし,多様な嗜好から学習する手法を開発した。
提案手法はDMcontrolとMeta-worldの様々なタスクでテストされる。
多様なフィードバックから学ぶと、既存の好みベースのRLアルゴリズムよりも一貫性があり、大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-27T15:18:54Z) - Unsupervised Learning for Combinatorial Optimization with Principled
Objective Relaxation [19.582494782591386]
本研究は,最適化(CO)問題に対する教師なし学習フレームワークを提案する。
我々の重要な貢献は、緩和された目的がエントリーワイドな凹凸を満たすならば、低い最適化損失は最終積分解の品質を保証するという観察である。
特に、この観察は、対象が明示的に与えられていないアプリケーションにおいて、事前にモデル化される必要がある場合に、対象モデルの設計を導くことができる。
論文 参考訳(メタデータ) (2022-07-13T06:44:17Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。