論文の概要: Variable importance without impossible data
- arxiv url: http://arxiv.org/abs/2205.15750v1
- Date: Tue, 31 May 2022 12:36:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 12:03:02.253986
- Title: Variable importance without impossible data
- Title(参考訳): 不可能なデータのない可変的重要性
- Authors: Masayoshi Mase, Art B. Owen, Benjamin B. Seiler
- Abstract要約: ブラックボックス予測アルゴリズムにおける変数の重要性を測定する方法は、複数の被験者の予測変数を組み合わせた合成入力を利用する。
このような値を用いた場合,ユーザは予測アルゴリズムの決定について,その説明を信頼できないと考える。
経済ゲーム理論に基づくコホートシェープ法を提唱する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The most popular methods for measuring importance of the variables in a black
box prediction algorithm make use of synthetic inputs that combine predictor
variables from multiple subjects. These inputs can be unlikely, physically
impossible, or even logically impossible. As a result, the predictions for such
cases can be based on data very unlike any the black box was trained on. We
think that users cannot trust an explanation of the decision of a prediction
algorithm when the explanation uses such values. Instead we advocate a method
called Cohort Shapley that is grounded in economic game theory and unlike most
other game theoretic methods, it uses only actually observed data to quantify
variable importance. Cohort Shapley works by narrowing the cohort of subjects
judged to be similar to a target subject on one or more features. A feature is
important if using it to narrow the cohort makes a large difference to the
cohort mean. We illustrate it on an algorithmic fairness problem where it is
essential to attribute importance to protected variables that the model was not
trained on. For every subject and every predictor variable, we can compute the
importance of that predictor to the subject's predicted response or to their
actual response. These values can be aggregated, for example over all Black
subjects, and we propose a Bayesian bootstrap to quantify uncertainty in both
individual and aggregate Shapley values.
- Abstract(参考訳): ブラックボックス予測アルゴリズムにおける変数の重要性を測定する最も一般的な方法は、複数の被験者からの予測変数を結合する合成入力を用いる。
これらの入力は、不可能、物理的に不可能、あるいは論理的に不可能である。
その結果、このようなケースの予測は、トレーニングされたブラックボックスと非常に異なるデータに基づいて行うことができる。
このような値を用いた場合,ユーザは予測アルゴリズムの決定について,その説明を信頼できないと考える。
代わりに、経済ゲーム理論の基礎となるCohort Shapleyと呼ばれる手法を提唱し、他のゲーム理論とは異なり、実際に観測されたデータのみを用いて変数の重要性を定量化する。
コホート・シャプリー(Cohort Shapley)は、1つ以上の特徴において対象と類似していると判断された被験者のコホートを狭めることで機能する。
コホートを狭めるためにそれを使用する場合、コホート平均に大きな差をもたらすような特徴が重要である。
モデルが訓練されていない保護変数に重要な属性を割り当てることが不可欠であるアルゴリズムフェアネス問題について説明する。
全ての被験者と予測変数について、その被験者の予測応答や実際の反応に対する予測器の重要性を計算することができる。
これらの値は、例えば、すべての黒人被験者に集約することができ、個々のシャプリー値と集合シャプリー値の両方における不確かさを定量化するベイズブートストラップを提案する。
関連論文リスト
- A comparative study of conformal prediction methods for valid uncertainty quantification in machine learning [0.0]
論文は、誰もが不確実性に気付いていて、それがどれほど重要か、そしてそれを恐れずにそれをどのように受け入れるか、という世界を探求しようとします。
しかし、正確な不確実性推定を誰でも得るための特定のフレームワークが選別され、分析される。
論文 参考訳(メタデータ) (2024-05-03T13:19:33Z) - Debiasing Machine Learning Models by Using Weakly Supervised Learning [3.3298048942057523]
アルゴリズムの出力と感度変数の両方が連続的な設定において、アルゴリズム決定のバイアス軽減の問題に取り組む。
典型的な例は、年齢や財政状況に関して行われる不公平な決定である。
我々のバイアス緩和戦略は弱い教師付き学習手法であり、データのごく一部を公平に測定する必要がある。
論文 参考訳(メタデータ) (2024-02-23T18:11:32Z) - Partial-Label Learning with a Reject Option [3.1201323892302444]
本稿では,不確実な予測を拒否できるリジェクションオプションを持つ新しい部分ラベル学習アルゴリズムを提案する。
提案手法は, 競合相手と比較して, 非還元予測の数と精度の最良のトレードオフを提供する。
論文 参考訳(メタデータ) (2024-02-01T13:41:44Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Adversarial Resilience in Sequential Prediction via Abstention [46.80218090768711]
本研究では,クリーンラベルの逆数例を注入できる逆数設定における逐次予測の問題について検討する。
そこで本研究では,純粋と完全対向的な設定の間に位置する逐次予測の新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-06-22T17:44:22Z) - Prediction-Powered Inference [68.97619568620709]
予測を用いた推論は、実験データセットに機械学習システムからの予測を補足した場合に有効な統計的推論を行うためのフレームワークである。
このフレームワークは、手段、量子、線形およびロジスティック回帰係数などの量に対して証明可能な信頼区間を計算するための単純なアルゴリズムを生成する。
予測による推論により、研究者は機械学習を使用して、より有効な、よりデータ効率の高い結論を導き出すことができる。
論文 参考訳(メタデータ) (2023-01-23T18:59:28Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Cohort Shapley value for algorithmic fairness [0.0]
コホートシャプリー値(Cohort Shapley value)は、ゲーム理論に基礎を置く変数重要性のモデルフリーな方法である。
アルゴリズムの公正性を評価するために,よく知られたCompASレシビズムデータを例に挙げた。
論文 参考訳(メタデータ) (2021-05-15T08:02:18Z) - Stable Prediction via Leveraging Seed Variable [73.9770220107874]
従来の機械学習手法は、非因果変数によって誘導されるトレーニングデータにおいて、微妙に刺激的な相関を利用して予測する。
本研究では, 条件付き独立性テストに基づくアルゴリズムを提案し, 種子変数を先行変数とする因果変数を分離し, 安定な予測に採用する。
我々のアルゴリズムは、安定した予測のための最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-06-09T06:56:31Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。