論文の概要: XMENTOR: A Rank-Aware Aggregation Approach for Human-Centered Explainable AI in Just-in-Time Software Defect Prediction
- arxiv url: http://arxiv.org/abs/2602.22403v1
- Date: Wed, 25 Feb 2026 20:54:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.404459
- Title: XMENTOR: A Rank-Aware Aggregation Approach for Human-Centered Explainable AI in Just-in-Time Software Defect Prediction
- Title(参考訳): XMENTOR: ジャストインタイムソフトウェア欠陥予測における人間中心型説明可能なAIのランクアグリゲーションアプローチ
- Authors: Saumendu Roy, Banani Roy, Chanchal Roy, Richard Bassey,
- Abstract要約: 我々は、VS Codeプラグインとして実装された人間中心のランク対応アグリゲーションメソッドであるXMENTORを紹介した。
XMENTORは、複数のポストホックな説明を適応しきい値、ランク、サインアグリーメントを適用して単一の一貫性のあるビューに統一する。
我々の研究結果は、説明とそれらを開発者へ組み込むことによって、解釈可能性、ユーザビリティ、信頼を高める方法を示している。
- 参考スコア(独自算出の注目度): 5.646457568088472
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning (ML)-based defect prediction models can improve software quality. However, their opaque reasoning creates an HCI challenge because developers struggle to trust models they cannot interpret. Explainable AI (XAI) methods such as LIME, SHAP, and BreakDown aim to provide transparency, but when used together, they often produce conflicting explanations that increase confusion, frustration, and cognitive load. To address this usability challenge, we introduce XMENTOR, a human-centered, rank-aware aggregation method implemented as a VS Code plugin. XMENTOR unifies multiple post-hoc explanations into a single, coherent view by applying adaptive thresholding, rank and sign agreement, and fallback strategies to preserve clarity without overwhelming users. In a user study, nearly 90% of the participants preferred aggregated explanations, citing reduced confusion and stronger support for daily tasks of debugging and review of defects. Our findings show how combining explanations and embedding them into developer workflows can enhance interpretability, usability, and trust.
- Abstract(参考訳): 機械学習(ML)ベースの欠陥予測モデルは、ソフトウェアの品質を改善することができる。
しかし、その不透明な推論は、解釈できないモデルを信頼するのに苦労するため、HCIの課題を生み出します。
LIME、SHAP、BreakDownといった説明可能なAI(XAI)メソッドは透明性の提供を目的としているが、同時に使用すると、混乱、フラストレーション、認知負荷を増加させる矛盾する説明がしばしば発生する。
このユーザビリティの課題に対処するために、VS Codeプラグインとして実装された人間中心のランク対応アグリゲーションメソッドであるXMENTORを紹介します。
XMENTORは、複数のポストホックな説明を、適応しきい値、ランクとサインの合意、およびフォールバック戦略を適用して、圧倒的なユーザなしで明確性を維持することによって、単一の一貫性のある視点に統一する。
ユーザ調査では、参加者の90%近くが集約された説明を好み、混乱を減らし、毎日のデバッグや欠陥のレビューのサポートを強化した。
私たちの研究結果は、説明とそれらを開発者ワークフローに組み込むことで、解釈可能性、ユーザビリティ、信頼を高める方法を示しています。
関連論文リスト
- PromptCD: Test-Time Behavior Enhancement via Polarity-Prompt Contrastive Decoding [85.22047087898311]
本稿では,より広範な拡張設定へのコントラストデコーディングを一般化するテスト時動作制御手法であるPolarity-Prompt Contrastive Decoding(PromptCD)を紹介する。
PromptCDは、目標行動のためのペアの正と負の導出プロンプトを構築し、望ましい結果を強化するためにモデル応答を対比する。
3H"アライメントの目的に関する実験では、一貫性と実質的な改善が示されている。
論文 参考訳(メタデータ) (2026-02-24T08:56:52Z) - Explaining AI Without Code: A User Study on Explainable AI [1.7966001353008778]
我々は、オープンソースのノーコードMLプラットフォームであるDashAIに、人間中心のXAIモジュールを提示する。
ユーザスタディは、初心者や専門家に対するユーザビリティと説明の影響を評価した。
論文 参考訳(メタデータ) (2025-12-28T15:44:43Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - Interactive Reasoning: Visualizing and Controlling Chain-of-Thought Reasoning in Large Language Models [54.85405423240165]
トピックの階層構造としてチェーンオブ思考出力を可視化するインタラクション設計であるInteractive Reasoningを導入する。
私たちは、不確実なトレードオフに直面したAIによる意思決定のプロトタイプであるHippoで、インタラクティブな推論を実装しています。
論文 参考訳(メタデータ) (2025-06-30T10:00:43Z) - PixelThink: Towards Efficient Chain-of-Pixel Reasoning [70.32510083790069]
PixelThinkは、外部から推定されるタスクの難しさと内部で測定されたモデルの不確実性を統合する、シンプルで効果的なスキームである。
シーンの複雑さと予測信頼度に応じて推論の長さを圧縮することを学ぶ。
実験により,提案手法は推論効率と全体セグメンテーション性能の両方を改善した。
論文 参考訳(メタデータ) (2025-05-29T17:55:49Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Can Explainable AI Explain Unfairness? A Framework for Evaluating
Explainable AI [3.4823710414760516]
モデル行動の翻訳におけるXAIツールの強みにもかかわらず、批判はXAIツールがフェアウォッシングツールとしての影響を懸念している。
私たちは、バイアスと公平性の問題を検知し、対処する能力に関して、説明可能なAIツールを評価するためのフレームワークを作成しました。
モデルの振る舞いを単純化し、説明する能力があるにもかかわらず、多くの著名なXAIツールはバイアスを検出するのに重要な機能を欠いていることがわかった。
論文 参考訳(メタデータ) (2021-06-14T15:14:03Z) - DA-DGCEx: Ensuring Validity of Deep Guided Counterfactual Explanations
With Distribution-Aware Autoencoder Loss [0.0]
ディープラーニングモデルは、解釈可能性の欠如により、しばしばブラックボックスと見なされる。
本稿では,DA-DGCEx(Deep Guided Counterfactual Explanations)について述べる。
DGCExのコスト関数に、分散の反ファクトなインスタンスからペナルティを課す用語を追加する。
論文 参考訳(メタデータ) (2021-04-19T05:44:18Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。