論文の概要: Relational Local Explanations
- arxiv url: http://arxiv.org/abs/2212.12374v1
- Date: Fri, 23 Dec 2022 14:46:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 17:01:03.142459
- Title: Relational Local Explanations
- Title(参考訳): リレーショナルローカル説明
- Authors: Vadim Borisov and Gjergji Kasneci
- Abstract要約: 我々は,入力変数間の関係解析に基づく,新しいモデルに依存しない,置換に基づく特徴帰属アルゴリズムを開発した。
機械学習のモデル決定とデータについて、より広範な洞察を得ることができます。
- 参考スコア(独自算出の注目度): 11.679389861042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The majority of existing post-hoc explanation approaches for machine learning
models produce independent per-variable feature attribution scores, ignoring a
critical characteristic, such as the inter-variable relationship between
features that naturally occurs in visual and textual data. In response, we
develop a novel model-agnostic and permutation-based feature attribution
algorithm based on the relational analysis between input variables. As a
result, we are able to gain a broader insight into machine learning model
decisions and data. This type of local explanation measures the effects of
interrelationships between local features, which provides another critical
aspect of explanations. Experimental evaluations of our framework using setups
involving both image and text data modalities demonstrate its effectiveness and
validity.
- Abstract(参考訳): 機械学習モデルに対する既存のポストホックな説明アプローチの大部分は、視覚データとテキストデータで自然に発生する特徴間の変数間関係のような重要な特徴を無視して、変数毎の特徴帰属スコアを生成する。
そこで我々は,入力変数間の関係解析に基づく新しいモデル非依存・置換型特徴帰属アルゴリズムを開発した。
その結果、マシンラーニングのモデル決定とデータに対して、より広い洞察を得ることができるようになりました。
このタイプの局所的説明は、局所的特徴間の相互関係の影響を計測し、説明のもう一つの重要な側面を提供する。
画像およびテキストデータモダリティを含む設定を用いたフレームワークの実験的評価は,その有効性と妥当性を示している。
関連論文リスト
- Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Interpretability with full complexity by constraining feature
information [1.52292571922932]
解釈可能性(Interpretability)は、機械学習の課題だ。
我々は、新しい角度から解釈可能性にアプローチする:モデルの複雑さを制限することなく、特徴に関する情報を制約する。
近似モデルのスペクトルから洞察を抽出する枠組みを開発する。
論文 参考訳(メタデータ) (2022-11-30T18:59:01Z) - A Functional Information Perspective on Model Interpretation [30.101107406343665]
この研究は、モデル解釈可能性の理論的な枠組みを示唆している。
機能的フィッシャー情報によって機能的エントロピーを束縛する対数ソボレフの不等式に依存している。
提案手法は,様々なデータ信号に対する既存の解釈可能性サンプリング手法を超越していることを示す。
論文 参考訳(メタデータ) (2022-06-12T09:24:45Z) - SOInter: A Novel Deep Energy Based Interpretation Method for Explaining
Structured Output Models [6.752231769293388]
本稿では,構造化出力モデルの振る舞いを説明する新しい解釈手法を提案する。
出力の1つを対象とし、入力空間の各局所性における目標を決定するために構造化モデルが利用する最も重要な特徴を見つけ出そうとする。
論文 参考訳(メタデータ) (2022-02-20T21:57:07Z) - REPID: Regional Effect Plots with implicit Interaction Detection [0.9023847175654603]
解釈可能な機械学習手法は、限界特徴効果を可視化するが、特徴相互作用が存在する場合の誤解を招く可能性がある。
興味のある特徴と他の特徴との相互作用を検出する新しいフレームワークである暗黙の相互作用検出を導入する。
このフレームワークはまた、相互作用の強さを定量化し、特徴効果をより確実に解釈できる解釈可能な異なる領域を提供する。
論文 参考訳(メタデータ) (2022-02-15T08:54:00Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - Triplot: model agnostic measures and visualisations for variable
importance in predictive models that take into account the hierarchical
correlation structure [3.0036519884678894]
変数間の相関に関する情報を利用してモデル解析を支援する新しい手法を提案する。
ユーザが提案した変数群(アスペクト)と、自動的に決定される変数群(アスペクト)を解析する方法を紹介します。
また,可変グルーピングの階層構造を利用して高情報密度モデル可視化を行うtriplotという新しいタイプのモデル可視化手法を提案する。
論文 参考訳(メタデータ) (2021-04-07T21:29:03Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Out-of-distribution Generalization via Partial Feature Decorrelation [72.96261704851683]
本稿では,特徴分解ネットワークと対象画像分類モデルとを協調的に最適化する,PFDL(Partial Feature Deorrelation Learning)アルゴリズムを提案する。
実世界のデータセットを用いた実験により,OOD画像分類データセットにおけるバックボーンモデルの精度が向上することを示した。
論文 参考訳(メタデータ) (2020-07-30T05:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。