論文の概要: Beyond the Single-Best Model: Rashomon Partial Dependence Profile for Trustworthy Explanations in AutoML
- arxiv url: http://arxiv.org/abs/2507.14744v1
- Date: Sat, 19 Jul 2025 20:30:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.031605
- Title: Beyond the Single-Best Model: Rashomon Partial Dependence Profile for Trustworthy Explanations in AutoML
- Title(参考訳): シングルベストモデルを超えて: AutoMLにおける信頼できる説明のためのRashomon部分依存プロファイル
- Authors: Mustafa Cavus, Jan N. van Rijn, Przemysław Biecek,
- Abstract要約: モデル多重度を説明生成に組み込んだフレームワークを提案する。
結果として生じたラショモンPDPは解釈的変動を捉え、不一致の領域を強調している。
以上より,Rashomon PDPはモデル解釈の信頼性と信頼性を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 4.14197005718384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated machine learning systems efficiently streamline model selection but often focus on a single best-performing model, overlooking explanation uncertainty, an essential concern in human centered explainable AI. To address this, we propose a novel framework that incorporates model multiplicity into explanation generation by aggregating partial dependence profiles (PDP) from a set of near optimal models, known as the Rashomon set. The resulting Rashomon PDP captures interpretive variability and highlights areas of disagreement, providing users with a richer, uncertainty aware view of feature effects. To evaluate its usefulness, we introduce two quantitative metrics, the coverage rate and the mean width of confidence intervals, to evaluate the consistency between the standard PDP and the proposed Rashomon PDP. Experiments on 35 regression datasets from the OpenML CTR23 benchmark suite show that in most cases, the Rashomon PDP covers less than 70% of the best model's PDP, underscoring the limitations of single model explanations. Our findings suggest that Rashomon PDP improves the reliability and trustworthiness of model interpretations by adding additional information that would otherwise be neglected. This is particularly useful in high stakes domains where transparency and confidence are critical.
- Abstract(参考訳): 自動機械学習システムは、モデル選択を効率的に効率化するが、説明の不確実性を見越して、1つの最高のパフォーマンスモデルにフォーカスすることが多い。
そこで本研究では,Rashomon 集合と呼ばれる近似最適モデルから部分依存プロファイル (PDP) を集約することで,モデル乗法を説明生成に組み込む新しいフレームワークを提案する。
結果として生じるRashomon PDPは解釈的多様性を捉え、不一致の領域を強調し、ユーザーによりリッチで不確実な特徴効果のビューを提供する。
その有用性を評価するために,標準PDPと提案したラショウモンPDPの整合性を評価するために,2つの定量的指標,カバレッジ率と信頼区間の平均幅を導入する。
OpenML CTR23ベンチマークスイートによる35の回帰データセットの実験では、ほとんどの場合、Rashomon PDPは最高のモデルのPDPの70%未満をカバーしており、単一のモデル説明の制限を裏付けている。
以上の結果から,Rashomon PDPは無視されるであろう追加情報を追加することにより,モデル解釈の信頼性と信頼性を向上させることが示唆された。
これは、透明性と信頼性が重要である高利害な領域で特に有用である。
関連論文リスト
- On Rollouts in Model-Based Reinforcement Learning [5.004576576202551]
モデルベース強化学習(MBRL)は、環境のモデルを学び、そこから合成ロールアウトを生成することにより、データ効率を向上させることを目指している。
これらのロールアウト中に蓄積されたモデルエラーは、データの分散を歪め、ポリシー学習に悪影響を及ぼし、長期計画を妨げる可能性がある。
本稿では,アレータリックをモデル不確実性から分離し,データ分布に対する後者の影響を低減するモデルベースのロールアウト機構であるInfopropを提案する。
論文 参考訳(メタデータ) (2025-01-28T13:02:52Z) - Linguistic Fuzzy Information Evolution with Random Leader Election Mechanism for Decision-Making Systems [58.67035332062508]
言語ファジィ情報進化はエージェント間の情報交換を理解する上で重要である。
エージェントの重みの違いは、古典的なDeGrootモデルにおいて異なる収束結果をもたらす可能性がある。
本稿では,言語ファジィ情報力学の新しい3つのモデルを提案する。
論文 参考訳(メタデータ) (2024-10-19T18:15:24Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - PSLF: A PID Controller-incorporated Second-order Latent Factor Analysis Model for Recommender System [11.650076383080526]
2次ベースHDIモデル(SLF)解析はグラフ学習において特に高次および不完全因子データレートにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-31T13:01:58Z) - Sample Complexity Characterization for Linear Contextual MDPs [67.79455646673762]
文脈決定プロセス(CMDP)は、遷移カーネルと報酬関数がコンテキスト変数によってインデックス付けされた異なるMDPで時間とともに変化できる強化学習のクラスを記述する。
CMDPは、時間とともに変化する環境で多くの現実世界のアプリケーションをモデル化するための重要なフレームワークとして機能する。
CMDPを2つの線形関数近似モデルで検討する: 文脈変化表現とすべての文脈に対する共通線形重み付きモデルIと、すべての文脈に対する共通表現と文脈変化線形重み付きモデルIIである。
論文 参考訳(メタデータ) (2024-02-05T03:25:04Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - FairDP: Certified Fairness with Differential Privacy [55.51579601325759]
本稿では,FairDPについて紹介する。FairDPは,トレーニングされたモデルの判断に対して,グループフェアネスの認定を提供するために設計された,新しいトレーニングメカニズムである。
FairDPの鍵となる考え方は、独立した個別グループのためのモデルをトレーニングし、データプライバシ保護のための各グループの勾配にノイズを加え、グループモデルの知識を統合して、下流タスクにおけるプライバシ、ユーティリティ、公正性のバランスをとるモデルを構築することである。
論文 参考訳(メタデータ) (2023-05-25T21:07:20Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z) - ProtoVAE: A Trustworthy Self-Explainable Prototypical Variational Model [18.537838366377915]
ProtoVAEは、クラス固有のプロトタイプをエンドツーエンドで学習する変分自動エンコーダベースのフレームワークである。
表現空間を正規化し、正則性制約を導入することにより、信頼性と多様性を強制する。
論文 参考訳(メタデータ) (2022-10-15T00:42:13Z) - Deep Causal Reasoning for Recommendations [47.83224399498504]
推薦システム研究の新たなトレンドは、共同創設者の影響を因果的観点から否定することである。
提案手法は多因性マルチアウトカム(MCMO)推論問題としてモデル化する。
MCMOモデリングは,高次元因果空間に付随する観測が不十分なため,高いばらつきをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2022-01-06T15:00:01Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Explaining a Series of Models by Propagating Local Feature Attributions [9.66840768820136]
複数の機械学習モデルを含むパイプラインは、多くの領域でパフォーマンスが向上するが、理解が難しい。
Shapley値への接続に基づいて、モデルの複雑なパイプラインを通じてローカル機能属性を伝播させるフレームワークを紹介します。
本フレームワークにより,アルツハイマー病および乳癌の組織学的診断における遺伝子発現特徴群に基づく高次結論の導出が可能となった。
論文 参考訳(メタデータ) (2021-04-30T22:20:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。