論文の概要: Beyond the Single-Best Model: Rashomon Partial Dependence Profile for Trustworthy Explanations in AutoML
- arxiv url: http://arxiv.org/abs/2507.14744v1
- Date: Sat, 19 Jul 2025 20:30:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.031605
- Title: Beyond the Single-Best Model: Rashomon Partial Dependence Profile for Trustworthy Explanations in AutoML
- Title(参考訳): シングルベストモデルを超えて: AutoMLにおける信頼できる説明のためのRashomon部分依存プロファイル
- Authors: Mustafa Cavus, Jan N. van Rijn, Przemysław Biecek,
- Abstract要約: モデル多重度を説明生成に組み込んだフレームワークを提案する。
結果として生じたラショモンPDPは解釈的変動を捉え、不一致の領域を強調している。
以上より,Rashomon PDPはモデル解釈の信頼性と信頼性を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 4.14197005718384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated machine learning systems efficiently streamline model selection but often focus on a single best-performing model, overlooking explanation uncertainty, an essential concern in human centered explainable AI. To address this, we propose a novel framework that incorporates model multiplicity into explanation generation by aggregating partial dependence profiles (PDP) from a set of near optimal models, known as the Rashomon set. The resulting Rashomon PDP captures interpretive variability and highlights areas of disagreement, providing users with a richer, uncertainty aware view of feature effects. To evaluate its usefulness, we introduce two quantitative metrics, the coverage rate and the mean width of confidence intervals, to evaluate the consistency between the standard PDP and the proposed Rashomon PDP. Experiments on 35 regression datasets from the OpenML CTR23 benchmark suite show that in most cases, the Rashomon PDP covers less than 70% of the best model's PDP, underscoring the limitations of single model explanations. Our findings suggest that Rashomon PDP improves the reliability and trustworthiness of model interpretations by adding additional information that would otherwise be neglected. This is particularly useful in high stakes domains where transparency and confidence are critical.
- Abstract(参考訳): 自動機械学習システムは、モデル選択を効率的に効率化するが、説明の不確実性を見越して、1つの最高のパフォーマンスモデルにフォーカスすることが多い。
そこで本研究では,Rashomon 集合と呼ばれる近似最適モデルから部分依存プロファイル (PDP) を集約することで,モデル乗法を説明生成に組み込む新しいフレームワークを提案する。
結果として生じるRashomon PDPは解釈的多様性を捉え、不一致の領域を強調し、ユーザーによりリッチで不確実な特徴効果のビューを提供する。
その有用性を評価するために,標準PDPと提案したラショウモンPDPの整合性を評価するために,2つの定量的指標,カバレッジ率と信頼区間の平均幅を導入する。
OpenML CTR23ベンチマークスイートによる35の回帰データセットの実験では、ほとんどの場合、Rashomon PDPは最高のモデルのPDPの70%未満をカバーしており、単一のモデル説明の制限を裏付けている。
以上の結果から,Rashomon PDPは無視されるであろう追加情報を追加することにより,モデル解釈の信頼性と信頼性を向上させることが示唆された。
これは、透明性と信頼性が重要である高利害な領域で特に有用である。
関連論文リスト
- Chain-of-Sanitized-Thoughts: Plugging PII Leakage in CoT of Large Reasoning Models [0.0]
中間推論は、最終回答が衛生化されても、個人識別可能な情報(PII)をリークすることが多い。
プライバシ優先推論では,機密情報を漏らさずにモデルによる推論を行う。
プライベートCoT推論は、最小限のユーティリティ損失で実現できることを示す。
論文 参考訳(メタデータ) (2026-01-08T16:19:43Z) - Model Correlation Detection via Random Selection Probing [62.093777777813756]
既存の類似性に基づく手法では、モデルパラメータにアクセスしたり、しきい値なしでスコアを生成する必要がある。
本稿では,モデル相関検出を統計的テストとして定式化する仮説テストフレームワークであるランダム選択探索(RSP)を紹介する。
RSPは相関の証拠を定量化する厳密なp-値を生成する。
論文 参考訳(メタデータ) (2025-09-29T01:40:26Z) - Beyond Model Ranking: Predictability-Aligned Evaluation for Time Series Forecasting [18.018179328110048]
スペクトルコヒーレンスに基づく予測可能性整合診断フレームワークを提案する。
予測可能性ドリフト(predictability drift, 予測可能性ドリフト)の最初の体系的な証拠として, タスクの予測困難度が時間とともに急激に変化することを示す。
複雑なモデルは予測可能性の低いデータより優れているのに対し、線形モデルは予測可能なタスクに非常に効果的である。
論文 参考訳(メタデータ) (2025-09-27T02:56:06Z) - Conformalized Exceptional Model Mining: Telling Where Your Model Performs (Not) Well [31.013018198280506]
本稿では,新しいフレームワークであるConformalized Exceptional Model Miningを紹介する。
コンフォーマル予測の厳密さと例外モデルマイニングの説明力を組み合わせる。
我々は、共形予測の厳密なカバレッジ保証を通じて不確実性を定量化する新しいモデルクラスmSMoPEを開発する。
論文 参考訳(メタデータ) (2025-08-21T13:43:14Z) - On Rollouts in Model-Based Reinforcement Learning [5.004576576202551]
モデルベース強化学習(MBRL)は、環境のモデルを学び、そこから合成ロールアウトを生成することにより、データ効率を向上させることを目指している。
これらのロールアウト中に蓄積されたモデルエラーは、データの分散を歪め、ポリシー学習に悪影響を及ぼし、長期計画を妨げる可能性がある。
本稿では,アレータリックをモデル不確実性から分離し,データ分布に対する後者の影響を低減するモデルベースのロールアウト機構であるInfopropを提案する。
論文 参考訳(メタデータ) (2025-01-28T13:02:52Z) - Linguistic Fuzzy Information Evolution with Random Leader Election Mechanism for Decision-Making Systems [58.67035332062508]
言語ファジィ情報進化はエージェント間の情報交換を理解する上で重要である。
エージェントの重みの違いは、古典的なDeGrootモデルにおいて異なる収束結果をもたらす可能性がある。
本稿では,言語ファジィ情報力学の新しい3つのモデルを提案する。
論文 参考訳(メタデータ) (2024-10-19T18:15:24Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - PSLF: A PID Controller-incorporated Second-order Latent Factor Analysis Model for Recommender System [11.650076383080526]
2次ベースHDIモデル(SLF)解析はグラフ学習において特に高次および不完全因子データレートにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-31T13:01:58Z) - Sample Complexity Characterization for Linear Contextual MDPs [67.79455646673762]
文脈決定プロセス(CMDP)は、遷移カーネルと報酬関数がコンテキスト変数によってインデックス付けされた異なるMDPで時間とともに変化できる強化学習のクラスを記述する。
CMDPは、時間とともに変化する環境で多くの現実世界のアプリケーションをモデル化するための重要なフレームワークとして機能する。
CMDPを2つの線形関数近似モデルで検討する: 文脈変化表現とすべての文脈に対する共通線形重み付きモデルIと、すべての文脈に対する共通表現と文脈変化線形重み付きモデルIIである。
論文 参考訳(メタデータ) (2024-02-05T03:25:04Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - FairDP: Certified Fairness with Differential Privacy [55.51579601325759]
本稿では,FairDPについて紹介する。FairDPは,トレーニングされたモデルの判断に対して,グループフェアネスの認定を提供するために設計された,新しいトレーニングメカニズムである。
FairDPの鍵となる考え方は、独立した個別グループのためのモデルをトレーニングし、データプライバシ保護のための各グループの勾配にノイズを加え、グループモデルの知識を統合して、下流タスクにおけるプライバシ、ユーティリティ、公正性のバランスをとるモデルを構築することである。
論文 参考訳(メタデータ) (2023-05-25T21:07:20Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z) - ProtoVAE: A Trustworthy Self-Explainable Prototypical Variational Model [18.537838366377915]
ProtoVAEは、クラス固有のプロトタイプをエンドツーエンドで学習する変分自動エンコーダベースのフレームワークである。
表現空間を正規化し、正則性制約を導入することにより、信頼性と多様性を強制する。
論文 参考訳(メタデータ) (2022-10-15T00:42:13Z) - Deep Causal Reasoning for Recommendations [47.83224399498504]
推薦システム研究の新たなトレンドは、共同創設者の影響を因果的観点から否定することである。
提案手法は多因性マルチアウトカム(MCMO)推論問題としてモデル化する。
MCMOモデリングは,高次元因果空間に付随する観測が不十分なため,高いばらつきをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2022-01-06T15:00:01Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Explaining a Series of Models by Propagating Local Feature Attributions [9.66840768820136]
複数の機械学習モデルを含むパイプラインは、多くの領域でパフォーマンスが向上するが、理解が難しい。
Shapley値への接続に基づいて、モデルの複雑なパイプラインを通じてローカル機能属性を伝播させるフレームワークを紹介します。
本フレームワークにより,アルツハイマー病および乳癌の組織学的診断における遺伝子発現特徴群に基づく高次結論の導出が可能となった。
論文 参考訳(メタデータ) (2021-04-30T22:20:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。