論文の概要: Explaining Deep Neural Networks using Unsupervised Clustering
- arxiv url: http://arxiv.org/abs/2007.07477v2
- Date: Thu, 16 Jul 2020 00:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 04:33:45.143181
- Title: Explaining Deep Neural Networks using Unsupervised Clustering
- Title(参考訳): 教師なしクラスタリングによるディープニューラルネットワークの解説
- Authors: Yu-han Liu and Sercan O. Arik
- Abstract要約: 本稿では、教師なしクラスタリングを用いて、訓練された深層ニューラルネットワーク(DNN)を代理モデルに蒸留することで、新しい説明法を提案する。
提案手法はDNNアーキテクチャの任意のレイヤに柔軟に適用可能であり,低レベルかつ高レベルな情報を組み込むことができる。
- 参考スコア(独自算出の注目度): 12.639074798397619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method to explain trained deep neural networks (DNNs), by
distilling them into surrogate models using unsupervised clustering. Our method
can be applied flexibly to any subset of layers of a DNN architecture and can
incorporate low-level and high-level information. On image datasets given
pre-trained DNNs, we demonstrate the strength of our method in finding similar
training samples, and shedding light on the concepts the DNNs base their
decisions on. Via user studies, we show that our model can improve the user
trust in model's prediction.
- Abstract(参考訳): 本研究では,教師なしクラスタリングを用いて,訓練された深層ニューラルネットワーク(dnn)をサロゲートモデルに蒸留して説明する新しい手法を提案する。
提案手法はDNNアーキテクチャの任意のレイヤに柔軟に適用でき,低レベルかつ高レベルな情報を組み込むことができる。
トレーニング済みのDNNの画像データセットでは、同じようなトレーニングサンプルを見つけ、DNNが決定を下す概念に光を当てる方法の強みを実証する。
ユーザスタディを通じて,本モデルがモデル予測に対するユーザの信頼度を向上させることを示す。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - A Gradient Boosting Approach for Training Convolutional and Deep Neural
Networks [0.0]
グラディエントブースティング(GB)に基づく畳み込みニューラルネットワーク(CNN)とディープニューラルネットワークの訓練方法を紹介する。
提案モデルでは,同一アーキテクチャの標準CNNとDeep-NNに対して,分類精度の点で優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-22T12:17:32Z) - Visualizing the Emergence of Intermediate Visual Patterns in DNNs [19.043540343193946]
本稿では,DNNで符号化された中間層視覚パターンの識別能力を可視化する手法を提案する。
DNNは、トレーニングプロセス中に、各中間層における局所的な視覚パターンを徐々に学習する様子を可視化する。
この手法はまた、敵の攻撃や知識の蒸留など、既存の深層学習技術の信号処理行動に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-11-05T13:49:39Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - What Do Deep Nets Learn? Class-wise Patterns Revealed in the Input Space [88.37185513453758]
本研究では,深層ニューラルネットワーク(DNN)が学習するクラスワイズな知識を,異なる環境下で可視化し,理解する手法を提案する。
本手法は,各クラスのモデルが学習した知識を表現するために,画素空間内の1つの予測パターンを探索する。
逆境環境では、逆境に訓練されたモデルはより単純化された形状パターンを学ぶ傾向がある。
論文 参考訳(メタデータ) (2021-01-18T06:38:41Z) - Model-Based Machine Learning for Communications [110.47840878388453]
モデルベースのアルゴリズムと機械学習をハイレベルな視点で組み合わせるための既存の戦略を見直します。
通信受信機の基本的なタスクの一つであるシンボル検出に注目する。
論文 参考訳(メタデータ) (2021-01-12T19:55:34Z) - Deep Neural Networks and Neuro-Fuzzy Networks for Intellectual Analysis
of Economic Systems [0.0]
本稿では,ディープニューラルネットワークとニューロファジィネットに基づく時系列予測手法を提案する。
本稿では,ルールベースの方法論をディープラーニングニューラルネットワークに組み込むためのアプローチについても概説する。
論文 参考訳(メタデータ) (2020-11-11T06:21:08Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Causality-aware counterfactual confounding adjustment for feature
representations learned by deep models [14.554818659491644]
因果モデリングは機械学習(ML)における多くの課題に対する潜在的な解決策として認識されている。
深層ニューラルネットワーク(DNN)モデルによって学習された特徴表現を分解するために、最近提案された対実的アプローチが依然として使われている方法について説明する。
論文 参考訳(メタデータ) (2020-04-20T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。