論文の概要: When saliency goes off on a tangent: Interpreting Deep Neural Networks
with nonlinear saliency maps
- arxiv url: http://arxiv.org/abs/2110.06639v1
- Date: Wed, 13 Oct 2021 11:12:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 20:41:38.764682
- Title: When saliency goes off on a tangent: Interpreting Deep Neural Networks
with nonlinear saliency maps
- Title(参考訳): 接点上で塩分が切れると:非線形塩分写像を用いた深層ニューラルネットワークの解釈
- Authors: Jan Rosenzweig, Zoran Cvetkovic, Ivana Rosenzweig
- Abstract要約: 複雑な機械学習システムを重要なアプリケーションに活用する際のボトルネックは、それらがなぜ、何をするのかを知らないことです。
本稿では,基礎となる学習システムの非線形性を完全に考慮し,非線形サリエンシマップを生成する新しい手法について述べる。
- 参考スコア(独自算出の注目度): 4.814867028724277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A fundamental bottleneck in utilising complex machine learning systems for
critical applications has been not knowing why they do and what they do, thus
preventing the development of any crucial safety protocols. To date, no method
exist that can provide full insight into the granularity of the neural
network's decision process. In the past, saliency maps were an early attempt at
resolving this problem through sensitivity calculations, whereby dimensions of
a data point are selected based on how sensitive the output of the system is to
them. However, the success of saliency maps has been at best limited, mainly
due to the fact that they interpret the underlying learning system through a
linear approximation. We present a novel class of methods for generating
nonlinear saliency maps which fully account for the nonlinearity of the
underlying learning system. While agreeing with linear saliency maps on simple
problems where linear saliency maps are correct, they clearly identify more
specific drivers of classification on complex examples where nonlinearities are
more pronounced. This new class of methods significantly aids interpretability
of deep neural networks and related machine learning systems. Crucially, they
provide a starting point for their more broad use in serious applications,
where 'why' is equally important as 'what'.
- Abstract(参考訳): 重要なアプリケーションのために複雑な機械学習システムを利用する際の根本的なボトルネックは、彼らがなぜ何をしているのかを知らず、重要な安全プロトコルの開発を妨げている。
これまでのところ、ニューラルネットワークの決定プロセスの粒度の完全な洞察を提供する方法は存在しない。
かつては、サラジェンシーマップは感度計算を通じてこの問題を解こうとした初期の試みであり、システムの出力がどれだけ敏感であるかに基づいてデータポイントの寸法を選択する。
しかし、サラマンシーマップの成功は、主に、基礎となる学習システムを線形近似によって解釈するという事実から、極めて限定的であった。
本稿では,基礎となる学習システムの非線形性を完全に考慮した非線形サリエンシマップ生成手法を提案する。
線形正則写像が正しいような単純な問題に対する線形正則写像に一致するが、非線形性がより顕著な複素例において、より具体的な分類のドライバを特定する。
この新たな手法は、ディープニューラルネットワークと関連する機械学習システムの解釈可能性を大幅に向上させる。
重要なのは,‘なぜ’が‘何’として同じように重要である,真剣なアプリケーションにおいて,より広範な利用の出発点を提供することだ。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Implicit Bias of Policy Gradient in Linear Quadratic Control: Extrapolation to Unseen Initial States [52.56827348431552]
勾配降下はしばしば暗黙のバイアスを示し、目に見えないデータに優れたパフォーマンスをもたらす。
本稿では,初期状態に対する外挿の観点から,政策勾配の暗黙バイアスを理論的に検討する。
論文 参考訳(メタデータ) (2024-02-12T18:41:31Z) - Machine Learning Without a Processor: Emergent Learning in a Nonlinear Electronic Metamaterial [0.6597195879147557]
トランジスタをベースとした非線形抵抗素子を自己調整したアナログ電子ネットワークである非線形学習メタマテリアルを導入する。
我々は,XORや非線形回帰を含む線形システムでは不可能なタスクをコンピュータなしで学習できることを実証した。
これは、センサー、ロボットコントローラー、医療機器といったエッジシステムにおける、高速で低消費電力なコンピューティングの可能性を示唆している。
論文 参考訳(メタデータ) (2023-11-01T14:16:37Z) - What Can We Learn from Unlearnable Datasets? [107.12337511216228]
学習不可能なデータセットは、ディープニューラルネットワークの一般化を防ぐことによって、データのプライバシを保護する可能性がある。
学習不可能なデータセットでトレーニングされたニューラルネットワークは、一般化には役に立たない単純なルールであるショートカットのみを学ぶと広く信じられている。
これとは対照的に,ネットワークは高いテスト性能を期待できる有用な特徴を実際に学習することができ,画像保護が保証されていないことを示唆している。
論文 参考訳(メタデータ) (2023-05-30T17:41:35Z) - From Compass and Ruler to Convolution and Nonlinearity: On the
Surprising Difficulty of Understanding a Simple CNN Solving a Simple
Geometric Estimation Task [6.230751621285322]
本稿では, 単純な畳み込みニューラルネットワークを用いて, 簡単な学習問題に対処することを提案する。
驚くべきことに、訓練されたネットワークが学んだことを理解することは難しく、ある程度は直感に反する。
論文 参考訳(メタデータ) (2023-03-12T11:30:49Z) - Neural networks learn to magnify areas near decision boundaries [32.84188052937496]
本研究では,非拘束型ニューラルネットワーク特徴写像による幾何形状の学習方法について検討する。
まず、無限の幅でランダムパラメータを持つニューラルネットワークが入力空間上で高度に対称なメトリクスを誘導することを示す。
分類タスクを実行するために訓練されたネットワークは、決定境界に沿った地域を拡大するために学習する。
論文 参考訳(メタデータ) (2023-01-26T19:43:16Z) - A phase transition for finding needles in nonlinear haystacks with LASSO
artificial neural networks [1.5381930379183162]
ANN学習者は、針を回収する確率において相転移を示す。
本稿では,高効率・非微分可能・非微分可能最適化問題の解法を提案する。
論文 参考訳(メタデータ) (2022-01-21T11:39:04Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Piecewise linear activations substantially shape the loss surfaces of
neural networks [95.73230376153872]
本稿では,ニューラルネットワークの損失面を著しく形成する線形活性化関数について述べる。
我々はまず、多くのニューラルネットワークの損失面が、大域的なミニマよりも経験的リスクの高い局所的ミニマとして定義される無限の急激な局所的ミニマを持つことを証明した。
一層ネットワークの場合、セル内のすべての局所ミニマが同値類であり、谷に集中しており、セル内のすべてのグローバルミニマであることを示す。
論文 参考訳(メタデータ) (2020-03-27T04:59:34Z) - Learning Parities with Neural Networks [45.6877715768796]
本質的に非線形であるモデルのリーン性を示すための一歩を踏み出します。
特定の分布下では、疎パリティは深さ2のネットワーク上で適切な勾配によって学習可能であることを示す。
論文 参考訳(メタデータ) (2020-02-18T06:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。