論文の概要: A hierarchical decomposition for explaining ML performance discrepancies
- arxiv url: http://arxiv.org/abs/2402.14254v1
- Date: Thu, 22 Feb 2024 03:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 16:32:07.123846
- Title: A hierarchical decomposition for explaining ML performance discrepancies
- Title(参考訳): ML性能の相違を説明する階層的分解法
- Authors: Jean Feng, Harvineet Singh, Fan Xia, Adarsh Subbaswamy, Alexej
Gossmann
- Abstract要約: 機械学習アルゴリズムは、ドメイン間でパフォーマンスが異なることが多い。$textitwhy$とそのパフォーマンスを理解することは、パフォーマンスギャップを埋める上で最も効果的な介入の種類を決定するために不可欠である。
本稿では,機械学習アルゴリズムの性能が,因果的知識を必要とせず,ドメイン間で異なる理由を説明するために,集約的および詳細な分解を提供する非パラメトリック階層型フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.603088808962966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) algorithms can often differ in performance across
domains. Understanding $\textit{why}$ their performance differs is crucial for
determining what types of interventions (e.g., algorithmic or operational) are
most effective at closing the performance gaps. Existing methods focus on
$\textit{aggregate decompositions}$ of the total performance gap into the
impact of a shift in the distribution of features $p(X)$ versus the impact of a
shift in the conditional distribution of the outcome $p(Y|X)$; however, such
coarse explanations offer only a few options for how one can close the
performance gap. $\textit{Detailed variable-level decompositions}$ that
quantify the importance of each variable to each term in the aggregate
decomposition can provide a much deeper understanding and suggest much more
targeted interventions. However, existing methods assume knowledge of the full
causal graph or make strong parametric assumptions. We introduce a
nonparametric hierarchical framework that provides both aggregate and detailed
decompositions for explaining why the performance of an ML algorithm differs
across domains, without requiring causal knowledge. We derive debiased,
computationally-efficient estimators, and statistical inference procedures for
asymptotically valid confidence intervals.
- Abstract(参考訳): 機械学習(ML)アルゴリズムは、ドメイン間でパフォーマンスがしばしば異なる。
$\textit{why}$パフォーマンスの違いを理解することは、パフォーマンスギャップを埋める上で最も効果的な介入の種類(アルゴリズムや運用など)を決定するために不可欠である。
既存のメソッドでは、$\textit{aggregate decompositions}$の総パフォーマンスギャップを$$p(X)$の分散のシフトの影響に対して$$p(Y|X)$の条件分布のシフトの影響にフォーカスする。
集約分解における各項に対する各変数の重要性を定量化する$\textit{Detailed variable-level decompositions}$は、より深く理解し、よりターゲットの介入を提案する。
しかし、既存の手法は完全な因果グラフの知識を仮定するか、強いパラメトリックな仮定を行う。
本稿では,mlアルゴリズムの性能がドメインによって異なる理由を説明するために,集約分解と詳細分解の両方を提供する非パラメトリック階層型フレームワークを提案する。
我々は漸近的に妥当な信頼区間に対する偏差、計算効率のよい推定器、統計的推論手順を導出する。
関連論文リスト
- S-CFE: Simple Counterfactual Explanations [21.975560789792073]
スパースデータに対する多様体対応の反実的説明を求める問題に対処する。
提案手法は,スパースかつ多様体に整列した反実的説明を効果的に生成する。
論文 参考訳(メタデータ) (2024-10-21T07:42:43Z) - Efficient Differentiable Discovery of Causal Order [14.980926991441342]
Intersortは、変数の因果順序を発見するためのスコアベースの方法である。
我々は、差別化可能なソートとランキング技術を用いてインターソートを再構築する。
我々の研究は、因果順の正規化を微分可能なモデルの訓練に効率的に組み込むための扉を開く。
論文 参考訳(メタデータ) (2024-10-11T13:11:55Z) - Efficient SAGE Estimation via Causal Structure Learning [0.7243632426715939]
$d$-SAGEはShapley Additive Global Importance(SAGE)値への近似を高速化するメソッドである。
$d$-SAGEは、機能とモデルターゲットの間の条件の不依存性は、余剰なコントリビューションがゼロであることを暗示する、という観察によって動機付けられている。
我々は$d$-SAGEがSAGE値の効率的かつ正確な推定を可能にすることを示した。
論文 参考訳(メタデータ) (2023-04-06T14:40:32Z) - Minimax Optimal Online Imitation Learning via Replay Estimation [47.83919594113314]
本稿では,この経験的分散を低減するために,リプレイ推定手法を提案する。
提案手法では, min(H3/2 / N, H / sqrtN$)$ 依存度を最適に$widetildeO に設定する。
論文 参考訳(メタデータ) (2022-05-30T19:29:56Z) - Improving Out-of-Distribution Robustness via Selective Augmentation [61.147630193060856]
機械学習アルゴリズムは、トレーニングとテスト例が同じ分布から引き出されると仮定する。
分散シフトは現実世界のアプリケーションでは一般的な問題であり、テスト時にモデルが劇的に悪化する可能性がある。
LISAと呼ばれる選択的な拡張によって不変関数を学習するミックスアップ方式を提案する。
論文 参考訳(メタデータ) (2022-01-02T05:58:33Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z) - Efficient Consensus Model based on Proximal Gradient Method applied to
Convolutional Sparse Problems [2.335152769484957]
我々は、勾配近似(PG)アプローチに基づく効率的なコンセンサスアルゴリズムの理論解析を導出し、詳述する。
提案アルゴリズムは、異常検出タスクに対する別の特別な畳み込み問題にも適用できる。
論文 参考訳(メタデータ) (2020-11-19T20:52:48Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z) - Polynomial-Time Exact MAP Inference on Discrete Models with Global
Dependencies [83.05591911173332]
ジャンクションツリーアルゴリズムは、実行時の保証と正確なMAP推論のための最も一般的な解である。
本稿では,ノードのクローン化による新たなグラフ変換手法を提案する。
論文 参考訳(メタデータ) (2019-12-27T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。