論文の概要: True to the Model or True to the Data?
- arxiv url: http://arxiv.org/abs/2006.16234v1
- Date: Mon, 29 Jun 2020 17:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 13:55:01.961700
- Title: True to the Model or True to the Data?
- Title(参考訳): モデルに当てはまるか、データに当てはまるか?
- Authors: Hugh Chen, Joseph D. Janizek, Scott Lundberg, Su-In Lee
- Abstract要約: この選択は、モデルに真であることが望ましいか、データに真であることが望ましいかどうかに起因している、と私たちは主張する。
異なる価値関数の選択がそれぞれのシナリオでどのように機能するか、そして、モデル選択によってどのように属性が影響されるかを示す。
- 参考スコア(独自算出の注目度): 9.462808515258464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A variety of recent papers discuss the application of Shapley values, a
concept for explaining coalitional games, for feature attribution in machine
learning. However, the correct way to connect a machine learning model to a
coalitional game has been a source of controversy. The two main approaches that
have been proposed differ in the way that they condition on known features,
using either (1) an interventional or (2) an observational conditional
expectation. While previous work has argued that one of the two approaches is
preferable in general, we argue that the choice is application dependent.
Furthermore, we argue that the choice comes down to whether it is desirable to
be true to the model or true to the data. We use linear models to investigate
this choice. After deriving an efficient method for calculating observational
conditional expectation Shapley values for linear models, we investigate how
correlation in simulated data impacts the convergence of observational
conditional expectation Shapley values. Finally, we present two real data
examples that we consider to be representative of possible use cases for
feature attribution -- (1) credit risk modeling and (2) biological discovery.
We show how a different choice of value function performs better in each
scenario, and how possible attributions are impacted by modeling choices.
- Abstract(参考訳): 機械学習における特徴属性に対する連立ゲームの説明概念であるShapley値の適用について、近年のさまざまな論文が議論されている。
しかし、機械学習モデルを連立ゲームに結びつける正しい方法が議論の的となっている。
提案されている2つの主なアプローチは、(1)介入的または(2)観察的条件的期待を用いて、既知の特徴を条件付ける方法が異なる。
以前の研究では、2つのアプローチのうちの1つが一般に望ましいと主張しているが、私たちは選択はアプリケーションに依存すると主張している。
さらに、この選択はモデルに忠実であるか、データに真実であることが望ましいかに起因していると論じている。
我々はこの選択を調べるために線形モデルを使う。
線形モデルに対する観測条件期待値の効率的な計算法を導出した後,シミュレーションデータの相関が観測条件期待値の収束に与える影響について検討した。
最後に,(1)信用リスクモデリングと(2)生物学的発見という,機能帰属の可能性を示す2つの実データ例を示す。
異なる価値関数の選択がそれぞれのシナリオでどのように機能するか、そして、モデル選択によってどのように属性が影響されるかを示す。
関連論文リスト
- Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Secrets of RLHF in Large Language Models Part II: Reward Modeling [134.97964938009588]
本稿では,データセットにおける不正確で曖昧な嗜好の影響を軽減するために,一連の新しい手法を紹介する。
また、選択された応答と拒否された応答を区別する報酬モデルの有用性を高めるために、対照的な学習を導入する。
論文 参考訳(メタデータ) (2024-01-11T17:56:59Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - How to select predictive models for causal inference? [0.0]
従来の機械学習モデル選択は因果推論の最良の結果モデルを選択しないことを示す。
Rtext-risk$, フレキシブルな推定器を用いて列車集合上のニュアンスモデルを計算する。
論文 参考訳(メタデータ) (2023-02-01T10:58:55Z) - Rationalizing Predictions by Adversarial Information Calibration [65.19407304154177]
我々は2つのモデルを共同で訓練する: 1つは、正確だがブラックボックスな方法でタスクを解く典型的なニューラルモデルであり、もう1つは、予測の理論的根拠を付加するセレクタ・予測モデルである。
我々は,2つのモデルから抽出した情報を,それらの違いが欠落した特徴や過度に選択された特徴の指標であるように校正するために,敵対的手法を用いる。
論文 参考訳(メタデータ) (2023-01-15T03:13:09Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Sharing pattern submodels for prediction with missing values [12.981974894538668]
機械学習の多くのアプリケーションでは欠落値は避けられず、トレーニング中もテスト時にも課題が提示される。
パターンサブモデル(パターンサブモデル)と呼ばれる別の手法を提案する。これは、テスト時に欠落した値に対して、予測を堅牢にし、パターンサブモデルの予測力を維持または改善させる。
論文 参考訳(メタデータ) (2022-06-22T15:09:40Z) - Explaining predictive models using Shapley values and non-parametric
vine copulas [2.6774008509840996]
特徴間の依存をモデル化するための2つの新しいアプローチを提案する。
提案手法の性能はシミュレーションされたデータセットと実データセットで評価される。
実験により、ブドウのコプラアプローチは、ライバルよりも真のシャプリー値により正確な近似を与えることが示された。
論文 参考訳(メタデータ) (2021-02-12T09:43:28Z) - Gaussian Function On Response Surface Estimation [12.35564140065216]
メタモデリング手法によるブラックボックス機械学習モデルの解釈(機能とサンプル)のための新しいフレームワークを提案する。
メタモデルは、興味のある領域のデータサンプルでコンピュータ実験を実行することによって、訓練された複雑なモデルによって生成されたデータから推定することができる。
論文 参考訳(メタデータ) (2021-01-04T04:47:00Z) - A Note on High-Probability versus In-Expectation Guarantees of
Generalization Bounds in Machine Learning [95.48744259567837]
統計的機械学習理論は、しばしば機械学習モデルの一般化を保証するよう試みる。
機械学習モデルのパフォーマンスに関する声明は、サンプリングプロセスを考慮する必要がある。
1つのステートメントを別のステートメントに変換する方法を示します。
論文 参考訳(メタデータ) (2020-10-06T09:41:35Z) - Characterizing and Avoiding Problematic Global Optima of Variational
Autoencoders [28.36260646471421]
変分自動エンコーダ(VAEs)は、深部生成潜在変数モデルである。
最近の研究は、伝統的な訓練手法がデシダラタに反する解決策をもたらす傾向があることを示している。
どちらの問題も、VAEトレーニング目標のグローバルな最適度が望ましくない解決策とよく一致するという事実に起因していることを示す。
論文 参考訳(メタデータ) (2020-03-17T15:14:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。