論文の概要: Explanations of Black-Box Models based on Directional Feature
Interactions
- arxiv url: http://arxiv.org/abs/2304.07670v1
- Date: Sun, 16 Apr 2023 02:00:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 17:57:29.603735
- Title: Explanations of Black-Box Models based on Directional Feature
Interactions
- Title(参考訳): 方向的特徴相互作用に基づくブラックボックスモデルの記述
- Authors: Aria Masoomi, Davin Hill, Zhonghui Xu, Craig P Hersh, Edwin K.
Silverman, Peter J. Castaldi, Stratis Ioannidis, Jennifer Dy
- Abstract要約: 有向グラフにおける特徴的相互作用を捉えることによって,ブラックボックスモデルの説明方法を示す。
IMDB10, Census, Divorce, Drug, および遺伝子データに対して, 本手法の優位性を示す。
- 参考スコア(独自算出の注目度): 8.25114410474287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning algorithms are deployed ubiquitously to a variety of
domains, it is imperative to make these often black-box models transparent.
Several recent works explain black-box models by capturing the most influential
features for prediction per instance; such explanation methods are univariate,
as they characterize importance per feature. We extend univariate explanation
to a higher-order; this enhances explainability, as bivariate methods can
capture feature interactions in black-box models, represented as a directed
graph. Analyzing this graph enables us to discover groups of features that are
equally important (i.e., interchangeable), while the notion of directionality
allows us to identify the most influential features. We apply our bivariate
method on Shapley value explanations, and experimentally demonstrate the
ability of directional explanations to discover feature interactions. We show
the superiority of our method against state-of-the-art on CIFAR10, IMDB,
Census, Divorce, Drug, and gene data.
- Abstract(参考訳): 機械学習アルゴリズムは、さまざまなドメインにユビキタスにデプロイされるため、しばしばブラックボックスモデルを透過的にすることが必須である。
最近のいくつかの研究は、インスタンス当たりの予測のために最も影響力のある特徴を捉えてブラックボックスモデルを説明する。
二変量法は、有向グラフとして表されるブラックボックスモデルにおける特徴的相互作用を捉えることができるため、説明可能性を高める。
このグラフを解析することで、等しく重要な特徴群(すなわち、交換可能)を発見できる一方、方向性の概念は最も影響力のある特徴を特定できる。
両変数法をShapley値説明に適用し,特徴的相互作用を発見するための方向性説明の能力を実験的に実証する。
我々は, CIFAR10, IMDB, Census, Divorce, Drug, および遺伝子データにおける最先端技術に対する手法の優位性を示す。
関連論文リスト
- MOUNTAINEER: Topology-Driven Visual Analytics for Comparing Local Explanations [6.835413642522898]
トポロジカルデータ解析(TDA)は、属性を一様グラフ表現に変換するために使用できるため、この領域で有効な方法である。
我々は、新しいトポロジ駆動視覚分析ツールであるMountaineerを紹介し、機械学習の実践者がこれらの表現をインタラクティブに分析し比較できるようにする。
我々は、Mountaineerによって、ブラックボックスMLの説明と、異なる説明の相違の原因を識別する領域を比較できることを示す。
論文 参考訳(メタデータ) (2024-06-21T19:28:50Z) - A Unified Framework for Input Feature Attribution Analysis [44.5176896474762]
一般的な説明形式のひとつに、トークンやトークン間のインタラクションなど、重要な入力機能がある。
これらの説明型は単独でのみ研究されており、それぞれの適用性を判断することは困難である。
我々の実験では、強調説明はモデルの予測に最も忠実であり、対話的な説明はモデルの予測をシミュレートする学習に役立つ。
論文 参考訳(メタデータ) (2024-06-21T12:01:03Z) - Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Visual Commonsense based Heterogeneous Graph Contrastive Learning [79.22206720896664]
視覚的推論タスクをより良く仕上げるための異種グラフコントラスト学習法を提案する。
本手法はプラグイン・アンド・プレイ方式として設計されており,多種多様な代表手法と迅速かつ容易に組み合わせることができる。
論文 参考訳(メタデータ) (2023-11-11T12:01:18Z) - Explaining and visualizing black-box models through counterfactual paths [5.930734371401315]
本稿では,特徴の条件付き置換によって生成された,いわゆる反現実パスを用いた説明可能なAI(XAI)の新たなアプローチを提案する。
このアルゴリズムは、モデル予測における最も影響の大きい特徴の逐次的な置換を特定することで、重要度を測定する。
ドメイン知識を取り入れた知識グラフにおいて、反実的パスに基づく説明を生成するのに特に適している。
論文 参考訳(メタデータ) (2023-07-15T10:16:51Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - GRAPHSHAP: Explaining Identity-Aware Graph Classifiers Through the
Language of Motifs [11.453325862543094]
GraphSHAPは、ID対応グラフ分類器のモチーフベースの説明を提供することができる。
簡単なカーネルが説明スコアを効率的に近似し,説明空間が大きいシナリオで GraphSHAP をスケールできるようにする方法を示す。
実験では,ブラックボックスモデルによって提供される分類が,いくつかのコネクトロミクスパターンによって効果的に説明できることを強調した。
論文 参考訳(メタデータ) (2022-02-17T18:29:30Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - High Dimensional Model Explanations: an Axiomatic Approach [14.908684655206494]
複雑なブラックボックス機械学習モデルは、重要な意思決定領域で頻繁に使用される。
特徴部分集合の結合効果をキャプチャする新しい高次元モデル説明法を提案する。
論文 参考訳(メタデータ) (2020-06-16T07:48:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。