論文の概要: XpertAI: uncovering model strategies for sub-manifolds
- arxiv url: http://arxiv.org/abs/2403.07486v1
- Date: Tue, 12 Mar 2024 10:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 22:01:20.709138
- Title: XpertAI: uncovering model strategies for sub-manifolds
- Title(参考訳): XpertAI:サブマニフォールドのモデル戦略を明らかにする
- Authors: Simon Letzgus, Klaus-Robert M\"uller, and Gr\'egoire Montavon
- Abstract要約: レグレッションでは、特定のユーザクエリに対処するために、説明を正確に定式化する必要がある。
XpertAIは、予測戦略を複数の範囲固有のサブストラテジーに切り離すフレームワークである。
- 参考スコア(独自算出の注目度): 1.2874569408514918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Explainable AI (XAI) methods have facilitated profound
validation and knowledge extraction from ML models. While extensively studied
for classification, few XAI solutions have addressed the challenges specific to
regression models. In regression, explanations need to be precisely formulated
to address specific user queries (e.g.\ distinguishing between `Why is the
output above 0?' and `Why is the output above 50?'). They should furthermore
reflect the model's behavior on the relevant data sub-manifold. In this paper,
we introduce XpertAI, a framework that disentangles the prediction strategy
into multiple range-specific sub-strategies and allows the formulation of
precise queries about the model (the `explanandum') as a linear combination of
those sub-strategies. XpertAI is formulated generally to work alongside popular
XAI attribution techniques, based on occlusion, gradient integration, or
reverse propagation. Qualitative and quantitative results, demonstrate the
benefits of our approach.
- Abstract(参考訳): 近年、説明可能なAI(XAI)手法は、MLモデルから深い検証と知識抽出を促進する。
分類のために広く研究されているが、回帰モデルに特有の課題に対処するXAIソリューションはほとんどない。
レグレッションでは、特定のユーザークエリに対処するために、正確に説明を定式化する必要がある(例えば、'why is the output above 0?' と 'why is the output above 50?' を区別する)。
さらに、モデルの振る舞いを関連するデータサブマニフォールドに反映する必要がある。
本稿では,予測戦略を複数の範囲固有のサブストラテジーに分解するフレームワークであるXpertAIを紹介し,それらのサブストラテジーの線形結合としてモデルに関する正確なクエリ(explanandum)を定式化できるようにする。
XpertAIは一般的に、オクルージョン、勾配積分、逆伝播に基づく一般的なXAI属性技術と連携して機能するように構成されている。
質的かつ定量的な結果は、我々のアプローチの利点を実証する。
関連論文リスト
- A Comparative Study on Reasoning Patterns of OpenAI's o1 Model [69.08287909042421]
OpenAIのo1モデルは、ほとんどのデータセットで最高のパフォーマンスを実現しています。
また、いくつかの推論ベンチマークについて詳細な分析を行う。
論文 参考訳(メタデータ) (2024-10-17T15:09:03Z) - Model Agnostic Explainable Selective Regression via Uncertainty
Estimation [15.331332191290727]
本稿では,モデルに依存しない非パラメトリック不確実性推定を用いた選択回帰手法を提案する。
提案フレームワークは,最先端の選択的回帰器と比較して優れた性能を示す。
オープンソースPythonパッケージに選択的回帰法を実装し、実験を再現するために使用するコードをリリースする。
論文 参考訳(メタデータ) (2023-11-15T17:40:48Z) - Domain Generalization via Rationale Invariance [70.32415695574555]
本稿では,未確認環境においてもロバストな結果の維持を伴う領域一般化の課題を緩和する新たな視点を提供する。
本稿では,最終結果に対する要素的貢献を決定の根拠として扱い,各試料の根拠を行列として表現することを提案する。
提案手法は, 単純性に拘わらず, 様々なデータセット間で競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-08-22T03:31:40Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - Theoretical Behavior of XAI Methods in the Presence of Suppressor
Variables [0.8602553195689513]
近年,「説明可能な人工知能(XAI)」のコミュニティは,モデル「複雑性」と「解釈可能性」のギャップを埋めるための膨大な手法を生み出している。
本研究のアプローチの大部分は, 相関雑音の存在下での非クラス関連抑制機能に非ゼロの重要性が寄与すると考えられる。
論文 参考訳(メタデータ) (2023-06-02T11:41:19Z) - Characterizing the contribution of dependent features in XAI methods [6.990173577370281]
本稿では,XAI特徴量ランキング法の結果を,予測者間の依存性を考慮に入れたプロキシを提案する。
提案手法はモデルに依存しないという利点があり、コリニアリティが存在する場合のモデルにおける各予測器の影響を計算するのが簡単である。
論文 参考訳(メタデータ) (2023-04-04T11:25:57Z) - Optimizing Explanations by Network Canonization and Hyperparameter
Search [74.76732413972005]
ルールベースで修正されたバックプロパゲーションXAIアプローチは、モダンなモデルアーキテクチャに適用される場合、しばしば課題に直面します。
モデルカノン化は、基礎となる機能を変更することなく問題のあるコンポーネントを無視してモデルを再構成するプロセスである。
本研究では、一般的なディープニューラルネットワークアーキテクチャに適用可能な、現在関連するモデルブロックのカノン化を提案する。
論文 参考訳(メタデータ) (2022-11-30T17:17:55Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - Tree-based local explanations of machine learning model predictions,
AraucanaXAI [2.9660372210786563]
パフォーマンスと知性の間のトレードオフは、特に医学のような高度な応用において、しばしば直面する。
本稿では,ジェネリックMLモデルの予測に関する説明を生成するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T17:39:19Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。