論文の概要: FLEX: Feature Importance from Layered Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2511.11891v1
- Date: Fri, 14 Nov 2025 21:48:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.363071
- Title: FLEX: Feature Importance from Layered Counterfactual Explanations
- Title(参考訳): FLEX:レイヤ化された対実的説明からの特徴的重要性
- Authors: Nawid Keshtmand, Roussel Desmond Nzoyem, Jeffrey Nicholas Clark,
- Abstract要約: FLEX (Feature importance from Layered counterfactual Explanations) は,反事実の集合を特徴変化頻度スコアに変換するモデルおよびドメインに依存しないフレームワークである。
交通事故の重大度予測とローン承認の2つの対照的なタスクにおいてFLEXを評価し、FLEXとSHAPとLIMEの特徴重要度を比較した。
その結果, (i) FLEXのグローバルランキングは, (i) 追加ドライバを仮定しながらSHAPと相関し, (ii) 地域分析により, グローバルサマリーが見逃す文脈特異的要因が明らかになった。
- 参考スコア(独自算出の注目度): 1.1666234644810893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models achieve state-of-the-art performance across domains, yet their lack of interpretability limits safe deployment in high-stakes settings. Counterfactual explanations are widely used to provide actionable "what-if" recourse, but they typically remain instance-specific and do not quantify which features systematically drive outcome changes within coherent regions of the feature space or across an entire dataset. We introduce FLEX (Feature importance from Layered counterfactual EXplanations), a model- and domain-agnostic framework that converts sets of counterfactuals into feature change frequency scores at local, regional, and global levels. FLEX generalises local change-frequency measures by aggregating across instances and neighbourhoods, offering interpretable rankings that reflect how often each feature must change to flip predictions. The framework is compatible with different counterfactual generation methods, allowing users to emphasise characteristics such as sparsity, feasibility, or actionability, thereby tailoring the derived feature importances to practical constraints. We evaluate FLEX on two contrasting tabular tasks: traffic accident severity prediction and loan approval, and compare FLEX to SHAP- and LIME-derived feature importance values. Results show that (i) FLEX's global rankings correlate with SHAP while surfacing additional drivers, and (ii) regional analyses reveal context-specific factors that global summaries miss. FLEX thus bridges the gap between local recourse and global attribution, supporting transparent and intervention-oriented decision-making in risk-sensitive applications.
- Abstract(参考訳): マシンラーニングモデルは、ドメイン間の最先端のパフォーマンスを実現するが、解釈可能性の欠如により、ハイステークな設定での安全なデプロイメントが制限される。
対物的説明は、アクション可能な"What-if"の言葉を提供するために広く使われているが、通常はインスタンス固有であり、どの機能が特徴空間のコヒーレントな領域やデータセット全体において、結果の変化を体系的に駆動するかを定量化しない。
FLEX (Feature importance from Layered counterfactual Explanations) は, モデルおよびドメインに依存しないフレームワークであり, 局所, 地域, グローバルレベルで, 特徴変化頻度スコアに変換する。
FLEXは、インスタンスや近隣に集約することで局所的な変化頻度測定を一般化し、各機能が予測をひっくり返すためにどの程度の頻度で変更する必要があるかを反映した解釈可能なランキングを提供する。
このフレームワークは、異なる反ファクト生成手法と互換性があり、ユーザーは、疎さ、実現可能性、行動可能性などの特徴を強調して、派生した特徴を実用的な制約に合わせることができる。
我々は,交通事故の重大度予測とローン承認の2つの比較表上でFLEXを評価し,FLEXとSHAPおよびLIMEに基づく特徴重要度を比較した。
その結果は
(i)FLEXのグローバルランキングは、追加ドライバーを投入しながらSHAPと相関し、
(II)地域分析は,グローバルサマリーが見逃す文脈特化要因を明らかにする。
これにより、FLEXはローカルなリコースとグローバルな帰属のギャップを埋め、リスクに敏感なアプリケーションにおける透明性と介入指向の意思決定をサポートする。
関連論文リスト
- FedGPS: Statistical Rectification Against Data Heterogeneity in Federated Learning [103.45987800174724]
フェデレートラーニング(FL)は、データ不均一(data heterogeneity)として知られる重要な課題に直面し、モデルの性能と収束を損なう。
統計分布と勾配情報をシームレスに統合する新しいフレームワークである textbfFedGPS を提案する。
論文 参考訳(メタデータ) (2025-10-23T06:10:11Z) - Feature-Space Planes Searcher: A Universal Domain Adaptation Framework for Interpretability and Computational Efficiency [7.889121135601528]
現在の教師なし領域適応法は微調整特徴抽出器に依存している。
領域適応フレームワークとしてFPS(Feature-space Planes Searcher)を提案する。
FPSは最先端の手法と比較して,競争力や性能に優れることを示す。
論文 参考訳(メタデータ) (2025-08-26T05:39:21Z) - Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - FedEGG: Federated Learning with Explicit Global Guidance [90.04705121816185]
フェデレートラーニング(FL)は、そのプライバシー保護の性質から、多様なアプリケーションにとって大きな可能性を秘めている。
既存の手法は、最適化ベースのクライアント制約、適応的なクライアント選択、事前訓練されたモデルや合成データの使用によってこれらの課題に対処するのに役立つ。
我々はbftextFedEGGを提案する。bftextFedEGGは、よく定義された、容易に収束できる学習タスクを用いて、グローバルガイドタスクを構築する新しいFLアルゴリズムである。
論文 参考訳(メタデータ) (2024-04-18T04:25:21Z) - Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - Learning Generalizable Agents via Saliency-Guided Features Decorrelation [25.19044461705711]
特徴と判断の相関をなくすために,サリエンシガイド機能デコレーションを提案する。
RFFは高次元画像における複雑な非線形相関を推定するために利用され、サリエンシマップは変化した特徴を識別するために設計されている。
サリエンシマップの指導のもと、SGFDはサンプル再重み付けを用いて、変化した特徴に関する推定相関を最小化する。
論文 参考訳(メタデータ) (2023-10-08T09:24:43Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。