論文の概要: midr: Learning from Black-Box Models by Maximum Interpretation Decomposition
- arxiv url: http://arxiv.org/abs/2506.08338v1
- Date: Tue, 10 Jun 2025 01:46:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.057955
- Title: midr: Learning from Black-Box Models by Maximum Interpretation Decomposition
- Title(参考訳): Midr:最大解釈分解によるブラックボックスモデルからの学習
- Authors: Ryoichi Asashiba, Reiji Kozuma, Hirokazu Iwasawa,
- Abstract要約: 最大分解(MID)を実装したRパッケージミドルを導入する。
MIDはブラックボックスモデルの低次加法表現を導出する機能分解手法である。
Midrは、高度な分析機能を備えたグローバルサロゲートモデルを構築することで、ブラックボックスモデルから学習を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of appropriate methods of Interpretable Machine Learning (IML) and eXplainable Artificial Intelligence (XAI) is essential for adopting black-box predictive models in fields where model and prediction explainability is required. As a novel tool for interpreting black-box models, we introduce the R package midr, which implements Maximum Interpretation Decomposition (MID). MID is a functional decomposition approach that derives a low-order additive representation of a black-box model by minimizing the squared error between the model's prediction function and this additive representation. midr enables learning from black-box models by constructing a global surrogate model with advanced analytical capabilities. After reviewing related work and the theoretical foundation of MID, we demonstrate the package's usage and discuss some of its key features.
- Abstract(参考訳): In the use of appropriate method of Interpretable Machine Learning (IML) and eXplainable Artificial Intelligence (XAI) is essential to adopt black-box predictive model in the fields where model and prediction explainability。
ブラックボックスモデルを解釈するための新しいツールとして、最大解釈分解(MID)を実装したRパッケージミドルを導入する。
MIDはブラックボックスモデルの低次加法表現を導出する関数分解手法であり、モデルの予測関数とこの加法表現との2乗誤差を最小化する。
Midrは、高度な分析機能を備えたグローバルサロゲートモデルを構築することで、ブラックボックスモデルから学習を可能にする。
関連研究とMDDの理論的基礎を概観した後、パッケージの使用法を実演し、その重要な特徴について論じる。
関連論文リスト
- Predicting the Performance of Black-box LLMs through Self-Queries [60.87193950962585]
大規模言語モデル(LLM)は、AIシステムにおいてますます頼りになってきている。
本稿では、フォローアッププロンプトを使用し、異なる応答の確率を表現として捉え、ブラックボックス方式でLCMの特徴を抽出する。
これらの低次元表現上で線形モデルをトレーニングすると、インスタンスレベルでのモデル性能の信頼性を予測できることを示す。
論文 参考訳(メタデータ) (2025-01-02T22:26:54Z) - On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
本研究では,(マルチモーダル)自己教師型表現学習のデータ予測タスクにおいて,連続領域における識別確率モデルについて検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
MISが要求する条件付き確率密度の和を近似する新しい非パラメトリック手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Achieving interpretable machine learning by functional decomposition of black-box models into explainable predictor effects [4.3500439062103435]
ブラックボックス予測の関数分解のための新しい手法を提案する。
加法回帰モデルと同様に,本手法は主特徴量の方向と強度に関する洞察を与える。
論文 参考訳(メタデータ) (2024-07-26T10:37:29Z) - Interpretability in Symbolic Regression: a benchmark of Explanatory Methods using the Feynman data set [0.0]
機械学習モデルの解釈可能性は、モデルの精度と同じくらい重要な役割を果たす。
本稿では,回帰モデルを説明するための説明手法を評価するためのベンチマーク手法を提案する。
その結果、シンボリック回帰モデルは、ホワイトボックスモデルやブラックボックスモデルに代わる興味深い選択肢になり得ることが示されている。
論文 参考訳(メタデータ) (2024-04-08T23:46:59Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Partially Interpretable Estimators (PIE): Black-Box-Refined
Interpretable Machine Learning [5.479705009242287]
本稿では,各特徴に対する予測を解釈可能なモデルで特徴づける部分的解釈可能な推定子(pie)を提案する。
2種類のモデルを共同トレーニングするための反復トレーニングアルゴリズムを設計します。
実験の結果,PIEはブラックボックスモデルに対して高い競争力を示し,解釈可能なベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-05-06T03:06:34Z) - Design of Dynamic Experiments for Black-Box Model Discrimination [72.2414939419588]
選択したいような動的モデル判別の設定を考えてみましょう。 (i) 最高のメカニスティックな時間変化モデルと (ii) 最高のモデルパラメータ推定値です。
勾配情報にアクセス可能な競合する力学モデルに対しては、既存の手法を拡張し、より広い範囲の問題の不確実性を組み込む。
これらのブラックボックスモデルをガウス過程サロゲートモデルに置き換えることで、モデル識別設定を拡張して、競合するブラックボックスモデルをさらに取り入れる。
論文 参考訳(メタデータ) (2021-02-07T11:34:39Z) - A Causal Lens for Peeking into Black Box Predictive Models: Predictive
Model Interpretation via Causal Attribution [3.3758186776249928]
予測モデルがブラックボックスであるような設定でこの問題に対処することを目指している。
我々は、ブラックボックス予測モデルをモデル出力に対する各モデル入力の因果効果を推定する問題と比較する。
モデル入力に対するモデル出力に対する責任の因果関係が、予測モデルを解釈し、その予測を説明するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-01T23:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。