論文の概要: A Joint Learning Framework for Bridging Defect Prediction and Interpretation
- arxiv url: http://arxiv.org/abs/2502.16429v1
- Date: Sun, 23 Feb 2025 04:01:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:56:51.777600
- Title: A Joint Learning Framework for Bridging Defect Prediction and Interpretation
- Title(参考訳): ブリッジング欠陥予測と解釈のための共同学習フレームワーク
- Authors: Guifang Xu, Zhiling Zhu, Xingcheng Guo, Wei Wang,
- Abstract要約: 本稿では,欠陥予測と解釈のための共同学習フレームワークを提案する。
予測器からインタプリタへ決定ロジックを伝達するフィードバックループを設計する。
共同学習フレームワークの損失関数には,解釈結果をペナルティ項として組み込む。
- 参考スコア(独自算出の注目度): 3.0635300721402228
- License:
- Abstract: Over the past fifty years, numerous software defect prediction (SDP) approaches have been proposed. However, the ability to explain why predictors make certain predictions remains limited. Explainable SDP has emerged as a promising solution by using explainable artificial intelligence (XAI) methods to clarify the decision-making processes of predictors. Despite this progress, there is still significant potential to enhance the reliability of existing approaches. To address this limitation, we treat defect prediction and the corresponding interpretation as two distinct but closely related tasks and propose a joint learning framework that allows for the simultaneous training of the predictor and its interpreter. The novelty of our approach lies in two main aspects: 1. We design feedback loops that convey the decision-making logic from the predictor to the interpreter. This ensures a high level of conciseness in decision logic and feature engineering for both the predictor and the interpreter, enabling the interpreter to achieve reliable local and global interpretability. 2. We incorporate the interpretation results as a penalty term in the loss function of the joint-learning framework. This not only improves the accuracy of the predictor but also imposes a stronger constraint on the reliability of the interpreter. We validated our proposed method against several existing explainable SDPs across multiple datasets. The results demonstrate its effectiveness in both interpretation and defect prediction. The source code for the proposed method is available at: https://github.com/BugPredictor/software-defect-prediction.git
- Abstract(参考訳): 過去50年間で、多くのソフトウェア欠陥予測(SDP)アプローチが提案されている。
しかし、なぜ予測者が予測を行うのかを説明する能力は依然として限られている。
説明可能なSDPは、予測者の意思決定プロセスを明確にするために、説明可能な人工知能(XAI)手法を用いて、有望なソリューションとして登場した。
この進歩にもかかわらず、既存のアプローチの信頼性を高める大きな可能性がある。
この制限に対処するために、我々は欠陥予測とそれに対応する解釈を2つの異なる、しかし密接に関連するタスクとして扱い、予測器とインタプリタの同時学習を可能にする共同学習フレームワークを提案する。
私たちのアプローチの斬新さは2つの主な側面にあります。
1. 予測器からインタプリタへ決定ロジックを伝達するフィードバックループを設計する。
これにより、予測器とインタプリタの両方で、意思決定ロジックと機能エンジニアリングの高精度性が保証され、インタプリタが信頼性の高い局所的およびグローバルな解釈可能性を達成することができる。
2) 共同学習フレームワークの損失関数には,解釈結果をペナルティ用語として組み込む。
これにより、予測器の精度が向上するだけでなく、インタプリタの信頼性に強い制約が課される。
提案手法を,複数のデータセットにまたがる既存の説明可能なSDPに対して検証した。
その結果,解釈と欠陥予測の両面での有効性が示された。
提案されたメソッドのソースコードは、https://github.com/BugPredictor/software-defect-prediction.gitで入手できる。
関連論文リスト
- Contract Scheduling with Distributional and Multiple Advice [37.64065953072774]
これまでの研究によると、割り込み時間に関する予測は、契約ベースのシステムの性能を改善するのに役立ちます。
本稿では,予測が確率分布の形で行われる,より汎用的で現実的な学習強化設定の導入と研究を行う。
提案手法は,分布設定における誤差の予測に頑健であることを示す。
論文 参考訳(メタデータ) (2024-04-18T19:58:11Z) - Improving Language Models Meaning Understanding and Consistency by
Learning Conceptual Roles from Dictionary [65.268245109828]
現代事前訓練言語モデル(PLM)の非人間的行動は、その信頼性を損なう主要な原因である。
驚くべき現象は、矛盾した結果を生み出す不整合予測の生成である。
本研究では,PLMの認知度を向上させることで,一貫性のない行動問題を緩和する実践的アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-24T06:15:15Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Explaining Language Models' Predictions with High-Impact Concepts [11.47612457613113]
概念ベースの解釈可能性手法をNLPに拡張するための完全なフレームワークを提案する。
出力予測が大幅に変化する特徴を最適化する。
本手法は, ベースラインと比較して, 予測的影響, ユーザビリティ, 忠実度に関する優れた結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T14:48:27Z) - Neuro-Symbolic Entropy Regularization [78.16196949641079]
構造化予測では、目的は構造化されたオブジェクトをエンコードする多くの出力変数を共同で予測することである。
エントロピー正則化(Entropy regularization)という1つのアプローチは、決定境界が低確率領域にあるべきであることを示唆している。
我々は、モデルが有効対象を確実に予測することを奨励する損失、ニューロシンボリックエントロピー正規化を提案する。
論文 参考訳(メタデータ) (2022-01-25T06:23:10Z) - Explaining Prediction Uncertainty of Pre-trained Language Models by
Detecting Uncertain Words in Inputs [21.594361495948316]
本稿では,事前校正後の事前学習言語モデルの不確実な予測について,その説明をさらに進める。
我々は2つの摂動に基づくポストホック解釈手法、Leave-one-outとSamping Shapleyを適用し、予測の不確実性の原因となる入力中の単語を同定する。
論文 参考訳(メタデータ) (2022-01-11T02:04:50Z) - Interpreting Process Predictions using a Milestone-Aware Counterfactual
Approach [0.0]
本稿では,予測プロセス分析の文脈において,一般的なモデルに依存しない逆ファクトアルアルゴリズムであるDiCEの利用について検討する。
分析の結果,プロセス予測の導出に際し,アルゴリズムは限定的であることがわかった。
本稿では,足跡の異なる段階における節目対応の反事実の導出を支援する手法を提案する。
論文 参考訳(メタデータ) (2021-07-19T09:14:16Z) - Interpretable Social Anchors for Human Trajectory Forecasting in Crowds [84.20437268671733]
本研究では,人混みの軌跡を予測できるニューラルネットワークシステムを提案する。
解釈可能なルールベースのインテントを学び、ニューラルネットワークの表現可能性を利用してシーン固有の残差をモデル化する。
私たちのアーキテクチャは、インタラクション中心のベンチマークTrajNet++でテストされています。
論文 参考訳(メタデータ) (2021-05-07T09:22:34Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Modeling Voting for System Combination in Machine Translation [92.09572642019145]
本稿では,機械翻訳におけるシステムの組み合わせに対する投票のモデル化手法を提案する。
提案手法は,仮説間の関係を解析できるだけでなく,エンドツーエンドのトレーニングを可能にするため,統計的手法とニューラル手法の利点を組み合わせたものである。
論文 参考訳(メタデータ) (2020-07-14T09:59:38Z) - Getting a CLUE: A Method for Explaining Uncertainty Estimates [30.367995696223726]
微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
論文 参考訳(メタデータ) (2020-06-11T21:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。