論文の概要: Achieving interpretable machine learning by functional decomposition of black-box models into explainable predictor effects
- arxiv url: http://arxiv.org/abs/2407.18650v1
- Date: Fri, 26 Jul 2024 10:37:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 13:40:43.578080
- Title: Achieving interpretable machine learning by functional decomposition of black-box models into explainable predictor effects
- Title(参考訳): ブラックボックスモデルの機能的分解による解釈可能な機械学習の実現と説明可能な予測効果
- Authors: David Köhler, David Rügamer, Matthias Schmid,
- Abstract要約: ブラックボックス予測の関数分解のための新しい手法を提案する。
加法回帰モデルと同様に,本手法は主特徴量の方向と強度に関する洞察を与える。
- 参考スコア(独自算出の注目度): 4.3500439062103435
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning (ML) has seen significant growth in both popularity and importance. The high prediction accuracy of ML models is often achieved through complex black-box architectures that are difficult to interpret. This interpretability problem has been hindering the use of ML in fields like medicine, ecology and insurance, where an understanding of the inner workings of the model is paramount to ensure user acceptance and fairness. The need for interpretable ML models has boosted research in the field of interpretable machine learning (IML). Here we propose a novel approach for the functional decomposition of black-box predictions, which is considered a core concept of IML. The idea of our method is to replace the prediction function by a surrogate model consisting of simpler subfunctions. Similar to additive regression models, these functions provide insights into the direction and strength of the main feature contributions and their interactions. Our method is based on a novel concept termed stacked orthogonality, which ensures that the main effects capture as much functional behavior as possible and do not contain information explained by higher-order interactions. Unlike earlier functional IML approaches, it is neither affected by extrapolation nor by hidden feature interactions. To compute the subfunctions, we propose an algorithm based on neural additive modeling and an efficient post-hoc orthogonalization procedure.
- Abstract(参考訳): 機械学習(ML)は人気と重要性の両方で大きく成長している。
MLモデルの高い予測精度は、解釈が難しい複雑なブラックボックスアーキテクチャによって達成されることが多い。
この解釈可能性問題は、医療、生態学、保険などの分野におけるMLの使用を妨げるものであり、モデルの内部動作を理解することは、ユーザの受け入れと公正性を保証するために最重要である。
解釈可能なMLモデルの必要性は、解釈可能な機械学習(IML)の分野での研究を加速させている。
本稿では, ブラックボックス予測の関数分解のための新しい手法を提案する。
本手法の考え方は,より単純な部分関数からなる代理モデルによって予測関数を置き換えることである。
加法回帰モデルと同様に、これらの関数は主要な特徴とそれらの相互作用の方向と強さに関する洞察を提供する。
提案手法は,高次相互作用によって説明される情報を含まない,可能な限り多くの機能的挙動を捕捉する,積み重ね直交という新しい概念に基づいている。
初期の機能的IMLアプローチとは異なり、外挿や隠れた特徴相互作用の影響を受けない。
サブファンクションを計算するために,ニューラル加算モデルと効率的なポストホック直交法に基づくアルゴリズムを提案する。
関連論文リスト
- Green LIME: Improving AI Explainability through Design of Experiments [44.99833362998488]
Local Interpretable Model-Agnostic Explanations (LIME)は、興味のあるインスタンスの近くで新しいデータポイントを生成し、それらをモデルに渡すことによって、説明を提供する。
LIMEは非常に多用途であり、幅広いモデルやデータセットに適用できる。
実験の手法を最適に設計することにより、複素モデルの関数評価の回数を減らすことができる。
論文 参考訳(メタデータ) (2025-02-18T11:15:04Z) - Extrapolative ML Models for Copolymers [1.901715290314837]
機械学習モデルは、材料特性の予測に徐々に使われてきた。
これらのモデルは本質的に補間的であり、物質の既知の特性範囲外の候補を探索するための有効性は未解決である。
本稿では,MLモデルの外挿能力,トレーニングデータセットのサイズと範囲,学習アプローチとの関係について検討する。
論文 参考訳(メタデータ) (2024-09-15T11:02:01Z) - Decomposing and Editing Predictions by Modeling Model Computation [75.37535202884463]
コンポーネントモデリングというタスクを導入します。
コンポーネントモデリングの目標は、MLモデルの予測をコンポーネントの観点から分解することだ。
コンポーネント属性を推定するスケーラブルなアルゴリズムであるCOARを提案する。
論文 参考訳(メタデータ) (2024-04-17T16:28:08Z) - An Explainable Regression Framework for Predicting Remaining Useful Life
of Machines [6.374451442486538]
本稿では,機械の残留実用寿命(RUL)予測のための説明可能な回帰フレームワークを提案する。
また、古典的およびニューラルネットワーク(NN)に基づくタスクのためのソリューションを含む機械学習(ML)アルゴリズムを評価した。
論文 参考訳(メタデータ) (2022-04-28T15:44:12Z) - Tree-based local explanations of machine learning model predictions,
AraucanaXAI [2.9660372210786563]
パフォーマンスと知性の間のトレードオフは、特に医学のような高度な応用において、しばしば直面する。
本稿では,ジェネリックMLモデルの予測に関する説明を生成するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T17:39:19Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - Surrogate Locally-Interpretable Models with Supervised Machine Learning
Algorithms [8.949704905866888]
近年,従来の統計的手法よりも予測性能が優れているため,機械学習アルゴリズムが普及している。
主な焦点は解釈可能性であり、結果として得られるサロゲートモデルは、合理的に優れた予測性能を持つ。
論文 参考訳(メタデータ) (2020-07-28T23:46:16Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。