論文の概要: ExplainBench: A Benchmark Framework for Local Model Explanations in Fairness-Critical Applications
- arxiv url: http://arxiv.org/abs/2506.06330v1
- Date: Sat, 31 May 2025 01:12:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.183206
- Title: ExplainBench: A Benchmark Framework for Local Model Explanations in Fairness-Critical Applications
- Title(参考訳): ExplainBench: フェアネスクリティカルなアプリケーションにおけるローカルモデル説明のためのベンチマークフレームワーク
- Authors: James Afful,
- Abstract要約: ローカルモデル説明の体系的な評価を行うためのオープンソースのベンチマークスイートであるExplainBenchを紹介する。
フレームワークにはインタラクティブな探索のためのStreamlitベースのグラフィカルインターフェースが含まれており、Pythonモジュールとしてパッケージ化されている。
ExplainBenchはCompAS, UCI Adult Income, LendingClubなどのフェアネス研究でよく使われるデータセット上で実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning systems are increasingly deployed in high-stakes domains such as criminal justice, finance, and healthcare, the demand for interpretable and trustworthy models has intensified. Despite the proliferation of local explanation techniques, including SHAP, LIME, and counterfactual methods, there exists no standardized, reproducible framework for their comparative evaluation, particularly in fairness-sensitive settings. We introduce ExplainBench, an open-source benchmarking suite for systematic evaluation of local model explanations across ethically consequential datasets. ExplainBench provides unified wrappers for popular explanation algorithms, integrates end-to-end pipelines for model training and explanation generation, and supports evaluation via fidelity, sparsity, and robustness metrics. The framework includes a Streamlit-based graphical interface for interactive exploration and is packaged as a Python module for seamless integration into research workflows. We demonstrate ExplainBench on datasets commonly used in fairness research, such as COMPAS, UCI Adult Income, and LendingClub, and showcase how different explanation methods behave under a shared experimental protocol. By enabling reproducible, comparative analysis of local explanations, ExplainBench advances the methodological foundations of interpretable machine learning and facilitates accountability in real-world AI systems.
- Abstract(参考訳): 機械学習システムは刑事司法、金融、医療といった高度な分野にますます導入されているため、解釈可能で信頼できるモデルへの需要はますます高まっている。
SHAP, LIME, および反ファクト法などの局所的説明手法の普及にもかかわらず, 比較評価のための標準化された再現可能なフレームワークは存在しない。
我々は、倫理的に連続したデータセットの局所モデル説明を体系的に評価するためのオープンソースのベンチマークスイートであるExplainBenchを紹介した。
ExplainBenchは一般的な説明アルゴリズムのための統一ラッパーを提供し、モデルトレーニングと説明生成のためのエンドツーエンドパイプラインを統合し、忠実度、疎度、堅牢性メトリクスによる評価をサポートする。
フレームワークにはインタラクティブな探索のためのStreamlitベースのグラフィカルインターフェースが含まれており、研究ワークフローへのシームレスな統合のためのPythonモジュールとしてパッケージ化されている。
我々は、CompAS、UCIアダルト所得、LendingClubなどのフェアネス研究でよく使われるデータセット上でExplainBenchを示し、異なる説明方法が共有実験プロトコルの下でどのように振る舞うかを示す。
ローカルな説明の再現可能な比較分析を可能にすることで、ExplainBenchは解釈可能な機械学習の方法論の基礎を前進させ、現実世界のAIシステムにおける説明責任を促進する。
関連論文リスト
- CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - GLOBE-CE: A Translation-Based Approach for Global Counterfactual
Explanations [10.276136171459731]
Global & Efficient Counterfactual Explanations (GLOBE-CE)は、現在の最先端技術に関連する信頼性とスケーラビリティの問題に取り組む柔軟なフレームワークである。
分類的特徴翻訳を数学的に解析し,その手法を応用した。
公開データセットとユーザスタディによる実験的評価は、GLOBE-CEが現在の最先端よりも大幅にパフォーマンスが向上していることを示している。
論文 参考訳(メタデータ) (2023-05-26T15:26:59Z) - CausalBench: A Large-scale Benchmark for Network Inference from
Single-cell Perturbation Data [61.088705993848606]
本稿では,実世界の介入データに対する因果推論手法を評価するベンチマークスイートCausalBenchを紹介する。
CaulBenchには、新しい分散ベースの介入メトリクスを含む、生物学的に動機付けられたパフォーマンスメトリクスが含まれている。
論文 参考訳(メタデータ) (2022-10-31T13:04:07Z) - AcME -- Accelerated Model-agnostic Explanations: Fast Whitening of the
Machine-Learning Black Box [1.7534486934148554]
解釈可能性のアプローチは、ユーザが待つことなく、実行可能な洞察を提供するべきです。
本稿では,グローバルレベルとローカルレベルの両方で特徴的重要性のスコアを迅速に提供する解釈可能性アプローチである,アクセレーションモデル非依存説明(AcME)を提案する。
AcMEは機能ランキングを計算しますが、機能値の変化がモデル予測にどのように影響するかを評価するために、What-if分析ツールも提供しています。
論文 参考訳(メタデータ) (2021-12-23T15:18:13Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。