論文の概要: META-ANOVA: Screening interactions for interpretable machine learning
- arxiv url: http://arxiv.org/abs/2408.00973v1
- Date: Fri, 2 Aug 2024 01:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 14:36:49.887886
- Title: META-ANOVA: Screening interactions for interpretable machine learning
- Title(参考訳): META-ANOVA:解釈可能な機械学習のためのスクリーニングインタラクション
- Authors: Yongchan Choi, Seokhun Park, Chanmoo Park, Dongha Kim, Yongdai Kim,
- Abstract要約: 我々はメタアノバと呼ばれる新しい手法を開発し、任意の予測モデルに対して解釈可能なモデルを提供する。
Meta-ANOVAの新たな技術的貢献は、与えられたブラックボックスモデルを機能的ANOVAモデルに変換する前に不要な相互作用をスクリーニングする手順である。
- 参考スコア(独自算出の注目度): 4.047495522208112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are two things to be considered when we evaluate predictive models. One is prediction accuracy,and the other is interpretability. Over the recent decades, many prediction models of high performance, such as ensemble-based models and deep neural networks, have been developed. However, these models are often too complex, making it difficult to intuitively interpret their predictions. This complexity in interpretation limits their use in many real-world fields that require accountability, such as medicine, finance, and college admissions. In this study, we develop a novel method called Meta-ANOVA to provide an interpretable model for any given prediction model. The basic idea of Meta-ANOVA is to transform a given black-box prediction model to the functional ANOVA model. A novel technical contribution of Meta-ANOVA is a procedure of screening out unnecessary interaction before transforming a given black-box model to the functional ANOVA model. This screening procedure allows the inclusion of higher order interactions in the transformed functional ANOVA model without computational difficulties. We prove that the screening procedure is asymptotically consistent. Through various experiments with synthetic and real-world datasets, we empirically demonstrate the superiority of Meta-ANOVA
- Abstract(参考訳): 予測モデルを評価する際に考慮すべきことは2つある。
1つは予測精度、もう1つは解釈可能性である。
近年では、アンサンブルベースのモデルやディープニューラルネットワークなど、高性能の予測モデルが数多く開発されている。
しかし、これらのモデルは複雑すぎることが多く、その予測を直感的に解釈することは困難である。
この解釈の複雑さは、医学、ファイナンス、大学入学などの説明責任を必要とする多くの現実世界の分野での使用を制限する。
本研究では,メタアノバと呼ばれる新しい手法を開発し,任意の予測モデルに対して解釈可能なモデルを提供する。
Meta-ANOVAの基本的な考え方は、与えられたブラックボックス予測モデルを機能的ANOVAモデルに変換することである。
Meta-ANOVAの新たな技術的貢献は、与えられたブラックボックスモデルを機能的ANOVAモデルに変換する前に不要な相互作用をスクリーニングする手順である。
このスクリーニング手法により、計算困難を伴わずに変換された機能的ANOVAモデルに高次相互作用を組み込むことができる。
スクリーニング手順が漸近的に一貫性があることを実証する。
合成および実世界のデータセットを用いた様々な実験を通じて,メタアノバの優位性を実証的に実証した。
関連論文リスト
- Model aggregation: minimizing empirical variance outperforms minimizing
empirical error [0.29008108937701327]
多様なモデルからの予測を単一のより正確な出力に集約する,データ駆動型フレームワークを提案する。
モデルはブラックボックス関数として扱う、モデルに依存しない、最小限の仮定を必要とする、広範囲のモデルからの出力を組み合わせることができる。
従来の解法と機械学習モデルをうまく統合して、堅牢性と精度の両方を改善する方法を示す。
論文 参考訳(メタデータ) (2024-09-25T18:33:21Z) - Reliability and Interpretability in Science and Deep Learning [0.0]
この記事では、従来の科学的モデルとDeep Neural Network(DNN)モデルの比較に焦点を当てる。
DNNモデルの複雑さは、その信頼性と長期的進歩の予測を妨げていると論じている。
また、解釈可能性が、統計分析だけでは理解できないあらゆるモデルの信頼性を評価するための前提条件であることも明らかにした。
論文 参考訳(メタデータ) (2024-01-14T20:14:07Z) - Statistical Aspects of SHAP: Functional ANOVA for Model Interpretation [0.456877715768796]
SHAP近似の課題は、特徴分布の選択と推定されるANOVAの2ドル$ANOVAの項数に大きく関係していることが示される。
機械学習の説明可能性と感度分析の関連性は、このケースでは明らかにされているが、実際的な結果は明らかではない。
論文 参考訳(メタデータ) (2022-08-21T21:46:15Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - Learning continuous models for continuous physics [94.42705784823997]
本研究では,科学技術応用のための機械学習モデルを検証する数値解析理論に基づくテストを開発する。
本研究は,従来のMLトレーニング/テスト手法と一体化して,科学・工学分野におけるモデルの検証を行う方法である。
論文 参考訳(メタデータ) (2022-02-17T07:56:46Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Gaussian Function On Response Surface Estimation [12.35564140065216]
メタモデリング手法によるブラックボックス機械学習モデルの解釈(機能とサンプル)のための新しいフレームワークを提案する。
メタモデルは、興味のある領域のデータサンプルでコンピュータ実験を実行することによって、訓練された複雑なモデルによって生成されたデータから推定することができる。
論文 参考訳(メタデータ) (2021-01-04T04:47:00Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z) - Learning a Formula of Interpretability to Learn Interpretable Formulas [1.7616042687330642]
人間の解釈可能性の非対象プロキシのMLモデルが人間のフィードバックから学習可能であることを示す。
進化的シンボリック回帰について示す。
我々のアプローチは、次世代の解釈可能な(進化的な)MLアルゴリズムの設計のための重要なステップストーンである。
論文 参考訳(メタデータ) (2020-04-23T13:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。