論文の概要: Explanation of Machine Learning Models of Colon Cancer Using SHAP
Considering Interaction Effects
- arxiv url: http://arxiv.org/abs/2208.03112v1
- Date: Fri, 5 Aug 2022 11:54:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:52:41.084950
- Title: Explanation of Machine Learning Models of Colon Cancer Using SHAP
Considering Interaction Effects
- Title(参考訳): 干渉効果を考慮したSHAPを用いた大腸癌機械学習モデルの構築
- Authors: Yasunobu Nohara, Toyoshi Inoguchi, Chinatsu Nojiri, Naoki Nakashima
- Abstract要約: 本稿では、相互作用効果を考慮したSHAPを用いた機械学習モデルの解釈手法として、Shapley-Taylorインデックスを導入する。
本手法を九州大学附属病院のがんコホートデータに適用し,大腸癌のリスクに寄与する因子の組み合わせを分析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When using machine learning techniques in decision-making processes, the
interpretability of the models is important. Shapley additive explanation
(SHAP) is one of the most promising interpretation methods for machine learning
models. Interaction effects occur when the effect of one variable depends on
the value of another variable. Even if each variable has little effect on the
outcome, its combination can have an unexpectedly large impact on the outcome.
Understanding interactions is important for understanding machine learning
models; however, naive SHAP analysis cannot distinguish between the main effect
and interaction effects. In this paper, we introduce the Shapley-Taylor index
as an interpretation method for machine learning models using SHAP considering
interaction effects. We apply the method to the cancer cohort data of Kyushu
University Hospital (N=29,080) to analyze what combination of factors
contributes to the risk of colon cancer.
- Abstract(参考訳): 意思決定プロセスで機械学習技術を使用する場合、モデルの解釈性が重要である。
Shapley additive explanation (SHAP) は機械学習モデルの最も有望な解釈手法の1つである。
相互作用効果は、ある変数の効果が別の変数の値に依存するときに起こる。
各変数が結果にほとんど影響を与えなくても、その組み合わせは結果に予想外の大きな影響を与える可能性がある。
相互作用を理解することは機械学習モデルを理解する上で重要であるが、単純なSHAP分析では主な効果と相互作用効果を区別できない。
本稿では、相互作用効果を考慮したSHAPを用いた機械学習モデルの解釈手法として、Shapley-Taylorインデックスを導入する。
本手法を九州大学病院(N=29,080)のがんコホートデータに適用し,大腸癌のリスクに寄与する因子の組み合わせを分析した。
関連論文リスト
- Explainable Artificial Intelligence for Dependent Features: Additive Effects of Collinearity [0.0]
本稿では,コリナリティ問題を考慮した新しいXAI手法として,コリナリティの付加効果(AEC)を提案する。
提案手法はシミュレーションデータと実データを用いて,芸術的XAI法と比較し,その効率性を検証した。
論文 参考訳(メタデータ) (2024-10-30T07:00:30Z) - Targeted Cause Discovery with Data-Driven Learning [66.86881771339145]
本稿では,観測結果から対象変数の因果変数を推定する機械学習手法を提案する。
我々は、シミュレートされたデータの教師あり学習を通じて因果関係を特定するために訓練されたニューラルネットワークを用いる。
大規模遺伝子制御ネットワークにおける因果関係の同定における本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-29T02:21:11Z) - Explainability of Machine Learning Models under Missing Data [2.880748930766428]
データ不足は、モデルの性能と解釈可能性を著しく損なうおそれのある問題である。
本稿では, 欠落データ分野の展開を要約し, 種々の計算法がシェープリー値の計算に与える影響について考察する。
論文 参考訳(メタデータ) (2024-06-29T11:31:09Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Trying to Outrun Causality with Machine Learning: Limitations of Model
Explainability Techniques for Identifying Predictive Variables [7.106986689736828]
機械学習のアルゴリズムは、見た目ほど柔軟性がなく、データの根底にある因果構造に驚くほど敏感であることを示す。
我々は、重要な変数のデータを探索したい研究者のために、いくつかの代替のレコメンデーションを提供する。
論文 参考訳(メタデータ) (2022-02-20T17:48:54Z) - Explanation of Machine Learning Models Using Shapley Additive
Explanation and Application for Real Data in Hospital [0.11470070927586014]
本稿では,機械学習モデルの解釈可能性向上のための2つの新しい手法を提案する。
本稿では,A/G比が脳梗塞の重要な予後因子であることを示す。
論文 参考訳(メタデータ) (2021-12-21T10:08:31Z) - Efficient Causal Inference from Combined Observational and
Interventional Data through Causal Reductions [68.6505592770171]
因果効果を推定する際の主な課題の1つである。
そこで本研究では,任意の数の高次元潜入共創者を置き換える新たな因果還元法を提案する。
パラメータ化縮小モデルを観測データと介入データから共同で推定する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T14:29:07Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z) - Fisher-Schultz Lecture: Generic Machine Learning Inference on
Heterogenous Treatment Effects in Randomized Experiments, with an Application
to Immunization in India [3.3449509626538543]
ランダム化実験における異種効果の重要な特徴を推定し,推定する手法を提案する。
主な特徴は、機械学習プロキシを使用した効果の最良の線形予測器、インパクトグループによってソートされた平均効果、および最も最も最も影響の少ないユニットの平均特性である。
論文 参考訳(メタデータ) (2017-12-13T14:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。