論文の概要: Model interpretation using improved local regression with variable
importance
- arxiv url: http://arxiv.org/abs/2209.05371v1
- Date: Mon, 12 Sep 2022 16:22:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 12:40:06.251706
- Title: Model interpretation using improved local regression with variable
importance
- Title(参考訳): 可変重み付き改良局所回帰を用いたモデル解釈
- Authors: Gilson Y. Shimizu, Rafael Izbicki and Andre C. P. L. F. de Carvalho
- Abstract要約: 本稿では、VarImpとSupClusという2つの新しい解釈可能性手法を紹介する。
VarImpは各インスタンスの説明を生成し、より複雑な関係を持つデータセットに適用することができる。
SupClusは、同様の説明でインスタンスのクラスタを解釈し、より単純なデータセットに適用することができる。
- 参考スコア(独自算出の注目度): 3.1690891866882236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fundamental question on the use of ML models concerns the explanation of
their predictions for increasing transparency in decision-making. Although
several interpretability methods have emerged, some gaps regarding the
reliability of their explanations have been identified. For instance, most
methods are unstable (meaning that they give very different explanations with
small changes in the data), and do not cope well with irrelevant features (that
is, features not related to the label). This article introduces two new
interpretability methods, namely VarImp and SupClus, that overcome these issues
by using local regressions fits with a weighted distance that takes into
account variable importance. Whereas VarImp generates explanations for each
instance and can be applied to datasets with more complex relationships,
SupClus interprets clusters of instances with similar explanations and can be
applied to simpler datasets where clusters can be found. We compare our methods
with state-of-the art approaches and show that it yields better explanations
according to several metrics, particularly in high-dimensional problems with
irrelevant features, as well as when the relationship between features and
target is non-linear.
- Abstract(参考訳): MLモデルの使用に関する根本的な疑問は、意思決定における透明性を高めるための予測の説明に関するものである。
解釈可能性の方法がいくつか現れたが、その説明の信頼性に関するいくつかのギャップが特定されている。
例えば、ほとんどのメソッドは不安定(データに小さな変更を加えて、非常に異なる説明をすることを意味する)で、無関係な特徴(ラベルとは無関係な特徴)にうまく対応しない。
本稿では,変数の重要度を考慮した重み付き距離に適合する局所回帰を用いて,これらの問題を克服する2つの新しい解釈可能性手法,すなわちVarImpとSupClusを紹介する。
VarImpは各インスタンスの説明を生成し、より複雑な関係を持つデータセットに適用することができるが、SupClusは同様の説明でインスタンスのクラスタを解釈し、クラスタを見つけることができる単純なデータセットに適用することができる。
本手法を最先端の手法と比較し,いくつかの指標,特に無関係な特徴をもつ高次元問題,および特徴と対象の関係が非線形である場合において,より優れた説明が得られることを示す。
関連論文リスト
- A Critical Assessment of Interpretable and Explainable Machine Learning for Intrusion Detection [0.0]
本稿では,過度に複雑で不透明なMLモデル,不均衡なデータと相関した特徴,異なる説明法における不整合な影響特徴,そして説明の不可能な有用性について検討する。
具体的には、Deep Neural Networksのような複雑な不透明モデルを避け、代わりにDecision Treesのような解釈可能なMLモデルを使用することを推奨する。
機能ベースのモデル説明は、多くの場合、異なる設定で矛盾している。
論文 参考訳(メタデータ) (2024-07-04T15:35:42Z) - Context-aware feature attribution through argumentation [0.0]
我々はCA-FATA (Context-Aware Feature Attribution Through Argumentation) と呼ばれる新しい特徴属性フレームワークを定義する。
我々のフレームワークは、各特徴を、予測を支援したり、攻撃したり、中和したりできる議論として扱うことによって、議論の力を利用する。
論文 参考訳(メタデータ) (2023-10-24T20:02:02Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - Learning Conditional Invariance through Cycle Consistency [60.85059977904014]
本稿では,データセットの変動の有意義な要因と独立な要因を識別する新しい手法を提案する。
提案手法は,対象プロパティと残りの入力情報に対する2つの別個の潜在部分空間を含む。
我々は,より意味のある因子を同定し,よりスペーサーや解釈可能なモデルに導く合成および分子データについて実証する。
論文 参考訳(メタデータ) (2021-11-25T17:33:12Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - Triplot: model agnostic measures and visualisations for variable
importance in predictive models that take into account the hierarchical
correlation structure [3.0036519884678894]
変数間の相関に関する情報を利用してモデル解析を支援する新しい手法を提案する。
ユーザが提案した変数群(アスペクト)と、自動的に決定される変数群(アスペクト)を解析する方法を紹介します。
また,可変グルーピングの階層構造を利用して高情報密度モデル可視化を行うtriplotという新しいタイプのモデル可視化手法を提案する。
論文 参考訳(メタデータ) (2021-04-07T21:29:03Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - $\ell_0$-based Sparse Canonical Correlation Analysis [7.073210405344709]
正準相関解析(CCA)モデルは、2つの変数の集合間の関連を研究する上で強力である。
その成功にもかかわらず、CCAモデルは、いずれかのモダリティにおける変数数がサンプル数を超えた場合、壊れる可能性がある。
本稿では,2つのモードのスパース部分集合に基づく相関表現の学習法である $ell_0$-CCA を提案する。
論文 参考訳(メタデータ) (2020-10-12T11:44:15Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。