論文の概要: RelEx: A Model-Agnostic Relational Model Explainer
- arxiv url: http://arxiv.org/abs/2006.00305v1
- Date: Sat, 30 May 2020 16:15:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 17:43:17.369735
- Title: RelEx: A Model-Agnostic Relational Model Explainer
- Title(参考訳): RelEx: モデルに依存しない関係モデル記述器
- Authors: Yue Zhang, David Defazio, Arti Ramesh
- Abstract要約: ブラックボックス・リレーショナル・モデルを説明するためのモデルに依存しないリレーショナル・説明器を開発した。
RelExはSRLモデルやGNNを含むあらゆるリレーショナルモデルを説明することができる。
- 参考スコア(独自算出の注目度): 12.76743087092418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, considerable progress has been made on improving the
interpretability of machine learning models. This is essential, as complex deep
learning models with millions of parameters produce state of the art results,
but it can be nearly impossible to explain their predictions. While various
explainability techniques have achieved impressive results, nearly all of them
assume each data instance to be independent and identically distributed (iid).
This excludes relational models, such as Statistical Relational Learning (SRL),
and the recently popular Graph Neural Networks (GNNs), resulting in few options
to explain them. While there does exist one work on explaining GNNs,
GNN-Explainer, they assume access to the gradients of the model to learn
explanations, which is restrictive in terms of its applicability across
non-differentiable relational models and practicality. In this work, we develop
RelEx, a model-agnostic relational explainer to explain black-box relational
models with only access to the outputs of the black-box. RelEx is able to
explain any relational model, including SRL models and GNNs. We compare RelEx
to the state-of-the-art relational explainer, GNN-Explainer, and relational
extensions of iid explanation models and show that RelEx achieves comparable or
better performance, while remaining model-agnostic.
- Abstract(参考訳): 近年,機械学習モデルの解釈可能性向上に大きく進展している。
数百万のパラメータを持つ複雑なディープラーニングモデルが技術結果の状態を生成しているため、これは必須だが、それらの予測を説明することはほぼ不可能である。
様々な説明可能性技術が印象的な結果を得たが、ほとんどすべてのデータインスタンスが独立で同一の分散(iid)であると仮定している。
これは、統計関係学習(srl)や最近普及したグラフニューラルネットワーク(gnns)といった関係モデルを排除し、それらを説明するための選択肢はほとんどない。
GNN、GNN-Explainerの説明には1つの研究があるが、非微分可能リレーショナルモデルと実用性にまたがる適用性に制限のある説明を学習するためにモデルの勾配にアクセスできると仮定している。
本研究では,ブラックボックスの出力にのみアクセス可能なブラックボックス関係モデルを記述するモデルに依存しない関係説明器RelExを開発した。
RelExはSRLモデルやGNNを含むあらゆるリレーショナルモデルを説明することができる。
我々は、relexと最先端のリレーショナル説明器、gnn-explainer、およびiid説明モデルのリレーショナル拡張を比較し、モデルに依存しないまま、relexが同等またはより優れたパフォーマンスを達成することを示す。
関連論文リスト
- Do graph neural network states contain graph properties? [5.222978725954348]
診断分類器を用いたグラフニューラルネットワーク(GNN)のモデル説明可能性パイプラインを提案する。
このパイプラインは、さまざまなアーキテクチャやデータセットにわたるGNNの学習した表現を探索し、解釈することを目的としている。
論文 参考訳(メタデータ) (2024-11-04T15:26:07Z) - Exploring Model Kinship for Merging Large Language Models [52.01652098827454]
本稿では,大規模言語モデル間の類似性や関連性の程度であるモデル親和性を紹介する。
モデル統合後の性能向上とモデル親和性の間には,一定の関係があることが判明した。
我々は新しいモデルマージ戦略を提案する。Top-k Greedy Merging with Model Kinship。
論文 参考訳(メタデータ) (2024-10-16T14:29:29Z) - MOUNTAINEER: Topology-Driven Visual Analytics for Comparing Local Explanations [6.835413642522898]
トポロジカルデータ解析(TDA)は、属性を一様グラフ表現に変換するために使用できるため、この領域で有効な方法である。
我々は、新しいトポロジ駆動視覚分析ツールであるMountaineerを紹介し、機械学習の実践者がこれらの表現をインタラクティブに分析し比較できるようにする。
我々は、Mountaineerによって、ブラックボックスMLの説明と、異なる説明の相違の原因を識別する領域を比較できることを示す。
論文 参考訳(メタデータ) (2024-06-21T19:28:50Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - ELUDE: Generating interpretable explanations via a decomposition into
labelled and unlabelled features [23.384134043048807]
モデルの予測を2つの部分に分解する説明フレームワークを開発する。
後者を識別することで、モデルの"説明できない"部分を分析することができます。
また,同機能領域で訓練された複数のモデルに対して,非競合機能セットが一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T17:36:55Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Causal Inference with Deep Causal Graphs [0.0]
パラメトリック因果モデリング技術は、カウンターファクト推定の機能を提供することはめったにない。
Deep Causal Graphsは、因果分布をモデル化するニューラルネットワークに必要な機能の抽象的な仕様である。
複雑な相互作用をモデル化する上で,その表現力を示し,機械学習の説明可能性と公正性を示す。
論文 参考訳(メタデータ) (2020-06-15T13:03:33Z) - Explainable Deep Modeling of Tabular Data using TableGraphNet [1.376408511310322]
付加的特徴属性の形で説明可能な予測を生成する新しいアーキテクチャを提案する。
説明可能なモデルはブラックボックスモデルと同じレベルの性能が得られることを示す。
論文 参考訳(メタデータ) (2020-02-12T20:02:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。