論文の概要: Now You See Me (CME): Concept-based Model Extraction
- arxiv url: http://arxiv.org/abs/2010.13233v1
- Date: Sun, 25 Oct 2020 22:03:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 04:58:45.446051
- Title: Now You See Me (CME): Concept-based Model Extraction
- Title(参考訳): Now You See Me (CME):概念に基づくモデル抽出
- Authors: Dmitry Kazhdan, Botty Dimanov, Mateja Jamnik, Pietro Li\`o, Adrian
Weller
- Abstract要約: ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて顕著なパフォーマンスを実現している。
DNNベースのアプローチをさらに強化するための重要なステップは、その説明可能性を改善することだ。
CME:概念に基づくモデル抽出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 24.320487188704146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) have achieved remarkable performance on a range
of tasks. A key step to further empowering DNN-based approaches is improving
their explainability. In this work we present CME: a concept-based model
extraction framework, used for analysing DNN models via concept-based extracted
models. Using two case studies (dSprites, and Caltech UCSD Birds), we
demonstrate how CME can be used to (i) analyse the concept information learned
by a DNN model (ii) analyse how a DNN uses this concept information when
predicting output labels (iii) identify key concept information that can
further improve DNN predictive performance (for one of the case studies, we
showed how model accuracy can be improved by over 14%, using only 30% of the
available concepts).
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて顕著なパフォーマンスを実現している。
DNNベースのアプローチをさらに強化するための重要なステップは、その説明可能性を改善することだ。
本稿では,概念ベース抽出モデルを用いたDNNモデルの解析に使用される概念ベースモデル抽出フレームワークであるCMEを紹介する。
2つのケーススタディ(dSpritesとCaltech UCSD Birds)を用いて、CMEの使い方を実証する。
(i)dnnモデルで学習した概念情報の解析
(ii)dnnが出力ラベルの予測にこの概念情報をどのように利用するかを分析する
(iii)dnn予測性能をさらに向上させる重要な概念情報を特定する(ケーススタディの1つとして、利用可能な概念の30%のみを使用して、モデルの精度を14%以上向上させる方法を示した)。
関連論文リスト
- Deep Companion Learning: Enhancing Generalization Through Historical Consistency [35.5237083057451]
本稿では,不整合モデル予測をペナライズすることによって一般化を促進するディープニューラルネットワーク(DNN)の新たなトレーニング手法を提案する。
我々は、新しい入力の予測を提供するために、以前のバージョンのモデルを用いて、ディープコンパニオンモデル(DCM)を訓練する。
このコンパニオンモデルは、データ内の有意義な潜在意味構造を解読し、ターゲットの監視を提供する。
論文 参考訳(メタデータ) (2024-07-26T15:31:13Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - NxPlain: Web-based Tool for Discovery of Latent Concepts [16.446370662629555]
提案するNxPlainは,潜在概念を用いたモデル予測を記述したWebアプリケーションである。
NxPlainは、深いNLPモデルで学んだ潜在概念を発見し、モデルで学んだ知識の解釈を提供し、使用した概念に基づいてその予測を説明する。
論文 参考訳(メタデータ) (2023-03-06T10:45:24Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Comparison Analysis of Traditional Machine Learning and Deep Learning
Techniques for Data and Image Classification [62.997667081978825]
本研究の目的は、コンピュータビジョン2次元オブジェクト分類タスクに使用される最も一般的な機械学習およびディープラーニング技術を分析し比較することである。
まず、視覚語モデルと深部畳み込みニューラルネットワーク(DCNN)の理論的背景を示す。
次に、Bag of Visual Wordsモデル、VGG16 CNN Architectureを実装します。
論文 参考訳(メタデータ) (2022-04-11T11:34:43Z) - Algorithmic Concept-based Explainable Reasoning [0.3149883354098941]
グラフニューラルネットワーク(GNN)モデルに関する最近の研究は、古典的なグラフアルゴリズムと最適化問題にGNNを適用した。
これらのアプローチの主な障害は、GNNは直接解釈できないブラックボックスモデルであるため、説明可能性の欠如である。
本稿では,GNNの読み出し機構を改良したコンセプトブートネックGNNを紹介する。
論文 参考訳(メタデータ) (2021-07-15T17:44:51Z) - MEME: Generating RNN Model Explanations via Model Extraction [6.55705721360334]
MEMEは、人間の理解可能な概念とその相互作用で表される解釈可能なモデルでRNNを近似できるモデル抽出手法である。
解釈可能な概念相互作用を介してRNNの意思決定を近似することにより、MEMEがローカルとグローバルの両方でRNNを解釈する方法を示す。
論文 参考訳(メタデータ) (2020-12-13T04:00:08Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Modeling Token-level Uncertainty to Learn Unknown Concepts in SLU via
Calibrated Dirichlet Prior RNN [98.4713940310056]
現代パーソナルアシスタントにおける音声言語理解(SLU)の主な課題は、発話から意味概念を抽出することである。
最近の研究では、疑問と回答を収集し、未知のデータを学習し、質問すべきである。
疑わしい監督なしにシーケンスの不確かさをモデル化するために、ソフトマックスベースのスロット充填ニューラルネットワークアーキテクチャを組み込んだ。
論文 参考訳(メタデータ) (2020-10-16T02:12:30Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Explaining Deep Neural Networks using Unsupervised Clustering [12.639074798397619]
本稿では、教師なしクラスタリングを用いて、訓練された深層ニューラルネットワーク(DNN)を代理モデルに蒸留することで、新しい説明法を提案する。
提案手法はDNNアーキテクチャの任意のレイヤに柔軟に適用可能であり,低レベルかつ高レベルな情報を組み込むことができる。
論文 参考訳(メタデータ) (2020-07-15T04:49:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。