論文の概要: Optimal Local Explainer Aggregation for Interpretable Prediction
- arxiv url: http://arxiv.org/abs/2003.09466v2
- Date: Sun, 15 Nov 2020 21:18:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 22:17:52.017740
- Title: Optimal Local Explainer Aggregation for Interpretable Prediction
- Title(参考訳): 解釈予測のための最適局所記述器集約
- Authors: Qiaomei Li and Rachel Cummings and Yonatan Mintz
- Abstract要約: ブラックボックスマシン学習モデルを導入する際の意思決定者にとっての課題は、これらのモデルが提供する予測を理解することだ。
提案手法の1つは、より複雑なモデルに近似した代理説明器モデルの訓練である。
本稿では,情報パラメータに基づく新しい局所的説明アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 12.934180951771596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key challenge for decision makers when incorporating black box machine
learned models into practice is being able to understand the predictions
provided by these models. One proposed set of methods is training surrogate
explainer models which approximate the more complex model. Explainer methods
are generally classified as either local or global, depending on what portion
of the data space they are purported to explain. The improved coverage of
global explainers usually comes at the expense of explainer fidelity. One way
of trading off the advantages of both approaches is to aggregate several local
explainers into a single explainer model with improved coverage. However, the
problem of aggregating these local explainers is computationally challenging,
and existing methods only use heuristics to form these aggregations.
In this paper we propose a local explainer aggregation method which selects
local explainers using non-convex optimization. In contrast to other heuristic
methods, we use an integer optimization framework to combine local explainers
into a near-global aggregate explainer. Our framework allows a decision-maker
to directly tradeoff coverage and fidelity of the resulting aggregation through
the parameters of the optimization problem. We also propose a novel local
explainer algorithm based on information filtering. We evaluate our algorithmic
framework on two healthcare datasets---the Parkinson's Progression Marker
Initiative (PPMI) data set and a geriatric mobility dataset---which is
motivated by the anticipated need for explainable precision medicine. Our
method outperforms existing local explainer aggregation methods in terms of
both fidelity and coverage of classification and improves on fidelity over
existing global explainer methods, particularly in multi-class settings where
state-of-the-art methods achieve 70% and ours achieves 90%.
- Abstract(参考訳): ブラックボックスマシンを学習したモデルを実践する際の意思決定者にとって重要な課題は、これらのモデルが提供する予測を理解することだ。
提案手法の1つは、より複雑なモデルに近似した代理説明モデルの訓練である。
説明手法は、一般的に、説明すべきデータ空間のどの部分かによって、ローカルまたはグローバルに分類される。
グローバルな説明者のカバレッジの改善は、通常、説明者の忠実さを犠牲にしている。
両方のアプローチの利点を交換する方法の1つは、複数のローカルな説明者を単一の説明モデルにまとめ、カバレッジを改善することである。
しかし、これらの局所的な説明を集約する問題は計算的に困難であり、既存の手法はヒューリスティックスのみを用いてこれらの集約を形成する。
本稿では,非凸最適化を用いた局所説明器を選択する局所説明器集約手法を提案する。
他のヒューリスティック手法とは対照的に、局所的な説明器を準グロバルな集合の説明器に結合するために整数最適化フレームワークを用いる。
我々のフレームワークは、最適化問題のパラメータを通して、意思決定者が直接、結果の集約のカバレッジと忠実さをトレードオフすることができる。
また,情報フィルタリングに基づく新しい局所的説明アルゴリズムを提案する。
われわれは,Parkinson's Progression Marker Initiative(PPMI)データセットと老年期のモビリティデータセットの2つの医療データセットに対するアルゴリズムフレームワークの評価を行った。
提案手法は, 従来のグローバルな説明手法よりも忠実度と包括性の両方の観点から, 既存の局所的説明手法よりも優れており, 特に, 最先端の手法が70%を達成し, 90%を達成できるマルチクラス設定において, 忠実度の向上を図っている。
関連論文リスト
- GLEAMS: Bridging the Gap Between Local and Global Explanations [6.329021279685856]
本稿では,入力空間を分割し,各サブリージョン内で解釈可能なモデルを学習する新しい手法であるGLEAMSを提案する。
我々は、GLEAMSが合成データと実世界のデータの両方で有効であることを示し、その望ましい特性と人間の理解可能な洞察を強調した。
論文 参考訳(メタデータ) (2024-08-09T13:30:37Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Principles and Algorithms for Forecasting Groups of Time Series:
Locality and Globality [0.5076419064097732]
時系列の集合を局所的および大域的手法で予測する設定を定式化する。
グローバルモデルは以前考えられていたよりも幅広い問題に成功する可能性がある。
故意にこれらの原理から導かれるアルゴリズムは、精度が向上する。
論文 参考訳(メタデータ) (2020-08-02T10:22:05Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Explaining Predictions by Approximating the Local Decision Boundary [3.60160227126201]
局所決定境界近似(DBA)の新しい手法を提案する。
我々は変分オートエンコーダを訓練し、符号化されたデータ表現のユークリッド潜在空間を学習する。
我々は属性アノテーションを利用して、潜在空間をユーザにとって意味のある属性にマッピングします。
論文 参考訳(メタデータ) (2020-06-14T19:12:42Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - A flexible outlier detector based on a topology given by graph
communities [0.0]
異常検出は機械学習手法と統計的予測モデルの最適性能に不可欠である。
トポロジーは、特徴空間内の互いに隣接する近傍を成す重み付きグラフのコミュニティを用いて計算される。
当社のアプローチは、ローカル戦略とグローバル戦略の両方において、複数のビュー設定と単一ビュー設定で総合的に優れています。
論文 参考訳(メタデータ) (2020-02-18T18:40:31Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。