論文の概要: SPADE: Sparsity-Guided Debugging for Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2310.04519v1
- Date: Fri, 6 Oct 2023 18:28:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 17:59:26.677667
- Title: SPADE: Sparsity-Guided Debugging for Deep Neural Networks
- Title(参考訳): spade:深層ニューラルネットワークのためのスパーシティ誘導デバッグ
- Authors: Arshia Soltani Moakhar, Eugenia Iofinova, Dan Alistarh
- Abstract要約: 解釈可能性(英: Interpretability)は、ディープラーニング理論と実践の交差における重要なオープンゴールの1つである。
本研究では,サンプル対象プルーニングを用いて,サンプル上でのネットワーク実行の"トレース"を提供するSPADEを提案する。
以上の結果から,複数面ニューロンを切断し,一貫した解釈性の向上が期待できることがわかった。
- 参考スコア(独自算出の注目度): 39.50058754026165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability, broadly defined as mechanisms for understanding why and how
machine learning models reach their decisions, is one of the key open goals at
the intersection of deep learning theory and practice. Towards this goal,
multiple tools have been proposed to aid a human examiner in reasoning about a
network's behavior in general or on a set of instances. However, the outputs of
these tools-such as input saliency maps or neuron visualizations-are frequently
difficult for a human to interpret, or even misleading, due, in particular, to
the fact that neurons can be multifaceted, i.e., a single neuron can be
associated with multiple distinct feature combinations. In this paper, we
present a new general approach to address this problem, called SPADE, which,
given a trained model and a target sample, uses sample-targeted pruning to
provide a "trace" of the network's execution on the sample, reducing the
network to the connections that are most relevant to the specific prediction.
We demonstrate that preprocessing with SPADE significantly increases both the
accuracy of image saliency maps across several interpretability methods and the
usefulness of neuron visualizations, aiding humans in reasoning about network
behavior. Our findings show that sample-specific pruning of connections can
disentangle multifaceted neurons, leading to consistently improved
interpretability.
- Abstract(参考訳): 解釈可能性(Interpretability)は、機械学習モデルが意思決定に到達した理由と方法を理解するためのメカニズムとして広く定義されている。
この目標に向けて、ネットワークの動作全般やインスタンスの集合を推論する上で、人間の検査を支援する複数のツールが提案されている。
しかしながら、入力唾液マップやニューロンの可視化のようなこれらのツールの出力は、神経細胞が複数の特徴の組み合わせに関連付けられているという事実から、人間が解釈し、誤解を招くこともしばしば困難である。
本稿では、訓練されたモデルと対象サンプルが与えられた場合、サンプル上でのネットワーク実行の"トレース"を提供するためにサンプルターゲットプルーニングを用いて、ネットワークを特定の予測に最も関係のあるコネクションに還元するSPADEと呼ばれる、この問題に対処する新しい一般的なアプローチを提案する。
本研究では,spadeを用いた前処理により,複数の解釈法を横断する画像サリエンシーマップの精度と,ニューロンの可視化の有用性が著しく向上し,ネットワーク行動の推論を支援することを実証した。
以上の結果から,複数面ニューロンを切断し,一貫した解釈性の向上が期待できることがわかった。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Invertible Neural Networks for Graph Prediction [22.140275054568985]
本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
論文 参考訳(メタデータ) (2022-06-02T17:28:33Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Out-of-Distribution Example Detection in Deep Neural Networks using
Distance to Modelled Embedding [0.0]
予測時間における分布外例の検出に使用するDIME(Distance to Modelled Embedding)を提案する。
線形超平面として特徴空間に埋め込まれたトレーニングセットを近似することにより、単純で教師なし、高性能で計算効率の良い手法を導出する。
論文 参考訳(メタデータ) (2021-08-24T12:28:04Z) - Locally Sparse Networks for Interpretable Predictions [7.362415721170984]
本稿では,局所的な疎度をサンプル固有のゲーティング機構を用いて学習する,局所スパースニューラルネットワークのトレーニングフレームワークを提案する。
サンプル固有の間隔は、テキスト予測ネットワークで予測され、テキスト予測ネットワークとタンデムでトレーニングされる。
本手法は,1インスタンスあたりの機能が少ないターゲット関数の予測において,最先端のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T15:46:50Z) - HALO: Learning to Prune Neural Networks with Shrinkage [5.283963846188862]
ディープニューラルネットワークは、構造化されていないデータから豊富な特徴セットを抽出することにより、さまざまなタスクで最先端のパフォーマンスを実現する。
提案手法は,(1)ネットワークプルーニング,(2)スパシティ誘導ペナルティによるトレーニング,(3)ネットワークの重みと連動してバイナリマスクをトレーニングすることである。
トレーニング可能なパラメータを用いて、与えられたネットワークの重みを適応的に分散化することを学ぶ階層適応ラッソ(Hierarchical Adaptive Lasso)という新しいペナルティを提案する。
論文 参考訳(メタデータ) (2020-08-24T04:08:48Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。