論文の概要: i-Algebra: Towards Interactive Interpretability of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2101.09301v1
- Date: Fri, 22 Jan 2021 19:22:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 17:16:07.763022
- Title: i-Algebra: Towards Interactive Interpretability of Deep Neural Networks
- Title(参考訳): i-Algebra: ディープニューラルネットワークの対話的解釈可能性を目指して
- Authors: Xinyang Zhang, Ren Pang, Shouling Ji, Fenglong Ma, Ting Wang
- Abstract要約: i-Algebraはディープニューラルネットワーク(DNN)を解釈するための対話型フレームワークである。
その中核は原子、構成可能な演算子のライブラリであり、さまざまな入力粒度、異なる推論段階、および異なる解釈の視点からモデル挙動を説明する。
我々は,敵入力の検査,モデル不整合の解消,汚染データのクリーン化など,一連の代表的分析タスクでユーザ研究を行い,その有望なユーザビリティを示す。
- 参考スコア(独自算出の注目度): 41.13047686374529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing explanations for deep neural networks (DNNs) is essential for their
use in domains wherein the interpretability of decisions is a critical
prerequisite. Despite the plethora of work on interpreting DNNs, most existing
solutions offer interpretability in an ad hoc, one-shot, and static manner,
without accounting for the perception, understanding, or response of end-users,
resulting in their poor usability in practice. In this paper, we argue that DNN
interpretability should be implemented as the interactions between users and
models. We present i-Algebra, a first-of-its-kind interactive framework for
interpreting DNNs. At its core is a library of atomic, composable operators,
which explain model behaviors at varying input granularity, during different
inference stages, and from distinct interpretation perspectives. Leveraging a
declarative query language, users are enabled to build various analysis tools
(e.g., "drill-down", "comparative", "what-if" analysis) via flexibly composing
such operators. We prototype i-Algebra and conduct user studies in a set of
representative analysis tasks, including inspecting adversarial inputs,
resolving model inconsistency, and cleansing contaminated data, all
demonstrating its promising usability.
- Abstract(参考訳): 深層ニューラルネットワーク(DNN)の説明を提供することは、決定の解釈可能性が重要な前提条件であるドメインでの使用に不可欠である。
DNNの解釈に関する多くの取り組みにもかかわらず、既存のソリューションの多くは、エンドユーザーの認識、理解、応答を考慮せずに、アドホック、ワンショット、静的な方法での解釈可能性を提供しており、実際のユーザビリティは低下している。
本稿では,ユーザとモデル間のインタラクションとして,DNNの解釈可能性を実装するべきである。
DNNを解釈するための対話型フレームワークi-Algebraを提案する。
中心となるのは原子的で構成可能な作用素のライブラリであり、様々な入力粒度、異なる推論段階、異なる解釈の観点からモデル挙動を説明する。
宣言型クエリ言語を利用することで、ユーザーは様々な分析ツール(例えば、"drill-down", "comparative", "what-if" analysis)を柔軟に構成することで構築することができる。
我々はi-algebraのプロトタイプを作成し,そのユーザビリティを実証するために,敵の入力の検査,モデル不整合の解消,汚染データのクリーン化など,一連の代表的分析タスクにおいてユーザ研究を行う。
関連論文リスト
- Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Hybrid CNN -Interpreter: Interpret local and global contexts for
CNN-based Models [9.148791330175191]
畳み込みニューラルネットワーク(CNN)モデルでは、さまざまな領域のパフォーマンスが向上している。
解釈可能性の欠如は、AI支援アプリケーションの受け入れとデプロイの運用中の保証と規制の大きな障壁である。
本稿では,新しいCNN-Interpreterを提案する。
局所的解釈可能性に対する層特異的な予測結果を調べるための独自の前方伝播機構
特徴相関とフィルタ重大効果を示す新しい大域的解釈可能性
論文 参考訳(メタデータ) (2022-10-31T22:59:33Z) - Combining Discrete Choice Models and Neural Networks through Embeddings:
Formulation, Interpretability and Performance [10.57079240576682]
本研究では、ニューラルネットワーク(ANN)を用いた理論とデータ駆動選択モデルを組み合わせた新しいアプローチを提案する。
特に、分類的または離散的説明変数を符号化するために、埋め込みと呼ばれる連続ベクトル表現を用いる。
我々のモデルは最先端の予測性能を提供し、既存のANNモデルよりも優れ、必要なネットワークパラメータの数を劇的に削減します。
論文 参考訳(メタデータ) (2021-09-24T15:55:31Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - An Adversarial Approach for Explaining the Predictions of Deep Neural
Networks [9.645196221785694]
本稿では,敵対的機械学習を用いて,ディープニューラルネットワーク(DNN)の予測を説明する新しいアルゴリズムを提案する。
提案手法は,DNNに対する敵攻撃の挙動に基づいて,入力特徴の相対的重要性を推定する。
分析により、一貫性のある効率的な説明が得られます。
論文 参考訳(メタデータ) (2020-05-20T18:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。