論文の概要: Fast Hierarchical Games for Image Explanations
- arxiv url: http://arxiv.org/abs/2104.06164v1
- Date: Tue, 13 Apr 2021 13:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:41:16.037464
- Title: Fast Hierarchical Games for Image Explanations
- Title(参考訳): 画像説明のための高速階層ゲーム
- Authors: Jacopo Teneggi, Alexandre Luster, Jeremias Sulam
- Abstract要約: 本稿では,シェープリー係数の階層的拡張に基づく画像分類のモデル非依存な説明法を提案する。
他のShapleyベースの説明手法とは異なり、h-Shapはスケーラブルで近似を必要とせずに計算できる。
本手法は,合成データセット,医用画像シナリオ,一般コンピュータビジョン問題において,一般的なシャプリーベースおよび非サプリーベース手法と比較した。
- 参考スコア(独自算出の注目度): 78.16853337149871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As modern complex neural networks keep breaking records and solving harder
problems, their predictions also become less and less intelligible. The current
lack of interpretability often undermines the deployment of accurate machine
learning tools in sensitive settings. In this work, we present a model-agnostic
explanation method for image classification based on a hierarchical extension
of Shapley coefficients --Hierarchical Shap (h-Shap)-- that resolves some of
the limitations of current approaches. Unlike other Shapley-based explanation
methods, h-Shap is scalable and can be computed without the need of
approximation. Under certain distributional assumptions, such as those common
in multiple instance learning, h-Shap retrieves the exact Shapley coefficients
with an exponential improvement in computational complexity. We compare our
hierarchical approach with popular Shapley-based and non-Shapley-based methods
on a synthetic dataset, a medical imaging scenario, and a general computer
vision problem, showing that h-Shap outperforms the state of the art in both
accuracy and runtime. Code and experiments are made publicly available.
- Abstract(参考訳): 現代の複雑なニューラルネットワークは、記録を破って難しい問題を解決するため、その予測はますます知性が低下する。
現在の解釈可能性の欠如は、センシティブな設定で正確な機械学習ツールの配置を損なうことが多い。
本研究では,シェープ係数の階層的拡張-階層的シャップ(h-Shap)-に基づく画像分類のモデルに依存しない説明法を提案する。
他のShapleyベースの説明手法とは異なり、h-Shapはスケーラブルで近似なしで計算できる。
複数のインスタンス学習に共通するある種の分布仮定の下で、h-Shapは計算複雑性を指数関数的に改善した正確なシェープ係数を取得する。
我々は、我々の階層的アプローチを、合成データセット、医用画像シナリオ、一般的なコンピュータビジョン問題において、一般的なShapleyベースおよび非Shapleyベースの手法と比較し、h-Shapが精度と実行時間の両方で芸術の状態を上回ることを示す。
コードと実験が公開されている。
関連論文リスト
- Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Randomized Polar Codes for Anytime Distributed Machine Learning [66.46612460837147]
本稿では,低速な計算ノードに対して堅牢で,線形演算の近似計算と精度の両立が可能な分散コンピューティングフレームワークを提案する。
本稿では,復号化のための計算複雑性を低く保ちながら,実数値データを扱うための逐次復号アルゴリズムを提案する。
大規模行列乗算やブラックボックス最適化など,様々な文脈において,このフレームワークの潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-01T18:02:04Z) - Shapley Computations Using Surrogate Model-Based Trees [4.2575268077562685]
本稿では,Surrogateモデルを用いたShapleyとSHAPの値を条件付き期待値に基づいて計算する手法を提案する。
シミュレーション研究により,提案アルゴリズムは精度を向上し,グローバルシェープとSHAPの解釈を統一し,しきい値法は実行時間と精度をトレードオフする方法を提供することが示された。
論文 参考訳(メタデータ) (2022-07-11T22:20:51Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - RKHS-SHAP: Shapley Values for Kernel Methods [17.52161019964009]
本稿では,エフェクトインターベンショナル値とエフェクトオブザーショナルシェープ値の両方を効率的に計算できるカーネルマシンの属性法を提案する。
提案手法は局所的な摂動に対して頑健であることを示す。
論文 参考訳(メタデータ) (2021-10-18T10:35:36Z) - groupShapley: Efficient prediction explanation with Shapley values for
feature groups [2.320417845168326]
シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
論文 参考訳(メタデータ) (2021-06-23T08:16:14Z) - Shapley Explanation Networks [19.89293579058277]
深層モデルにShapley値そのものを潜在表現として組み込むことを提案する。
Shapley変換をニューラルネットワークモジュールとして運用し、ShapNetsと呼ばれる浅いネットワークと深いネットワークの両方を構築する。
Shallow ShapNetsはShapley値の正確な計算を行い、Deep ShapNetsはShapley値の欠如と正確性を維持します。
論文 参考訳(メタデータ) (2021-04-06T05:42:12Z) - Generalize a Small Pre-trained Model to Arbitrarily Large TSP Instances [55.64521598173897]
本稿では,旅行セールスマン問題(TSP)のヒートマップ構築に繰り返し使用可能な,小規模モデルのトレーニングを試みる。
ヒートマップは強化学習アプローチ(モンテカルロツリーサーチ)に供給され、高品質のソリューションの検索を案内します。
実験結果によると、この新しいアプローチは、既存の機械学習ベースのTSPアルゴリズムを明らかに上回る。
論文 参考訳(メタデータ) (2020-12-19T11:06:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。