論文の概要: Constraint-Reduced MILP with Local Outlier Factor Modeling for Plausible Counterfactual Explanations in Credit Approval
- arxiv url: http://arxiv.org/abs/2509.19504v1
- Date: Tue, 23 Sep 2025 19:23:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.578562
- Title: Constraint-Reduced MILP with Local Outlier Factor Modeling for Plausible Counterfactual Explanations in Credit Approval
- Title(参考訳): 信用承認における可算逆説明のための局所外乱係数モデルを用いた制約付きMILP
- Authors: Trung Nguyen Thanh, Huyen Giang Thi Thu, Tai Le Quy, Ha-Bang Ban,
- Abstract要約: そこで本稿では, 局所外乱係数 (LOF) の制約数を大幅に削減するMILP(Mixed-Integer Linear Programming) の定式化を提案する。
その結果,提案手法は説明品質を維持しつつ,より高速な解法時間を実現することがわかった。
- 参考スコア(独自算出の注目度): 0.06999740786886534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanation (CE) is a widely used post-hoc method that provides individuals with actionable changes to alter an unfavorable prediction from a machine learning model. Plausible CE methods improve realism by considering data distribution characteristics, but their optimization models introduce a large number of constraints, leading to high computational cost. In this work, we revisit the DACE framework and propose a refined Mixed-Integer Linear Programming (MILP) formulation that significantly reduces the number of constraints in the local outlier factor (LOF) objective component. We also apply the method to a linear SVM classifier with standard scaler. The experimental results show that our approach achieves faster solving times while maintaining explanation quality. These results demonstrate the promise of more efficient LOF modeling in counterfactual explanation and data science applications.
- Abstract(参考訳): 反現実的説明(CE)は、機械学習モデルから好ましくない予測を変更するために個人に実行可能な変更を提供する、広く使われているポストホック法である。
可塑性CE法はデータ分散特性を考慮しリアリズムを改善するが、その最適化モデルは多数の制約を導入し、高い計算コストをもたらす。
本研究では, DACEフレームワークを再検討し, 局所外乱係数(LOF)の制約数を著しく削減するMILP(Mixed-Integer Linear Programming)の定式化を提案する。
また,この手法を標準スケーラ付き線形SVM分類器に適用する。
実験結果から,本手法は説明品質を維持しつつ,より高速な解解時間を達成できることが示唆された。
これらの結果は、対実的説明およびデータサイエンス応用におけるより効率的なLOFモデリングの可能性を実証している。
関連論文リスト
- A Surrogate-Augmented Symbolic CFD-Driven Training Framework for Accelerating Multi-objective Physical Model Development [12.349699279273791]
本稿では,代理モデルと記号CFD駆動型トレーニングをリアルタイムに統合し,トレーニングコストを削減できる拡張フレームワークを提案する。
提案手法は, 統計的に1次元および2次元の流路にまたがって提案される。
いずれの場合も、このフレームワークはCFD駆動のアプローチと同等の予測精度を維持しながら、トレーニングコストを大幅に削減する。
論文 参考訳(メタデータ) (2025-12-22T05:04:09Z) - Improving Local Fidelity Through Sampling and Modeling Nonlinearity [3.7080015862513847]
Local Interpretable Model-Agnostic Explanation (LIME) は、局所的な決定境界が線形であり、非線形の関係を捉えることができないと仮定する。
本稿では,高忠実度な説明を生成できる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-12-05T09:26:18Z) - Language Ranker: A Lightweight Ranking framework for LLM Decoding [70.01564145836129]
本稿では,レコメンデーションパイプラインのランク付け段階に類似した復号過程を概念化する。
この知見に触発されて、我々はLanguage Rankerを提案する。
実験の結果、Language Rankerは大規模報酬モデルに匹敵するパフォーマンスを達成する一方で、0.5Mの追加パラメータしか必要としないことがわかった。
論文 参考訳(メタデータ) (2025-10-23T17:56:46Z) - ACE: Adapting sampling for Counterfactual Explanations [1.3406858660972552]
Counterfactual Explanations (CFE)は、モデルの予測を望ましい出力に変換するために必要な入力機能への最小限の変更を特定することで、機械学習モデルを解釈する。
既存の手法はしばしばサンプル非効率であり、ブラックボックスモデルの多くの評価を必要とする。
本稿では,ベイズ推定と最適化を組み合わせたサンプル効率のアルゴリズムであるACE(Adaptive sample for Counterfactual Explanations)を提案する。
論文 参考訳(メタデータ) (2025-09-30T14:31:03Z) - DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [86.76714527437383]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - Enhancing Performance of Explainable AI Models with Constrained Concept Refinement [10.241134756773228]
正確性と解釈可能性のトレードオフは、機械学習(ML)における長年の課題である。
本稿では,概念表現における偏差の影響について検討し,これらの効果を緩和するための新しい枠組みを提案する。
従来の説明可能な手法と比較して,提案手法は様々な大規模ベンチマークにおいてモデル解釈可能性を維持しながら予測精度を向上するだけでなく,計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2025-02-10T18:53:15Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Accelerating Non-Conjugate Gaussian Processes By Trading Off Computation For Uncertainty [27.34933282665653]
非共役ガウス過程(NCGP)は、分類的、順序的、連続的なデータをモデル化するための柔軟な確率的枠組みを定義する。
近似誤差はモデルの信頼性に悪影響を及ぼし、予測の不確実性を考慮しない。
このエラーを明示的にモデル化する反復的手法のファミリーを紹介します。
論文 参考訳(メタデータ) (2023-10-31T08:58:16Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - Tight Mutual Information Estimation With Contrastive Fenchel-Legendre
Optimization [69.07420650261649]
我々はFLOと呼ばれる新しい,シンプルで強力なコントラストMI推定器を提案する。
実証的に、我々のFLO推定器は前者の限界を克服し、より効率的に学習する。
FLOの有効性は、広範囲なベンチマークを用いて検証され、実際のMI推定におけるトレードオフも明らかにされる。
論文 参考訳(メタデータ) (2021-07-02T15:20:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。