論文の概要: DeepNNK: Explaining deep models and their generalization using polytope
interpolation
- arxiv url: http://arxiv.org/abs/2007.10505v1
- Date: Mon, 20 Jul 2020 22:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 13:05:48.111039
- Title: DeepNNK: Explaining deep models and their generalization using polytope
interpolation
- Title(参考訳): DeepNNK:ポリトープ補間を用いたディープモデルとその一般化
- Authors: Sarath Shekkizhar, Antonio Ortega
- Abstract要約: 我々は,局所的なポリトープ生成手法を導入することにより,ニューラルネットワークの理解を深める。
提案したDeep Non Negative Kernel regression (NNK) フレームワークは、非生成的、理論的には単純、幾何学的に直感的である。
- 参考スコア(独自算出の注目度): 42.16401154367232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern machine learning systems based on neural networks have shown great
success in learning complex data patterns while being able to make good
predictions on unseen data points. However, the limited interpretability of
these systems hinders further progress and application to several domains in
the real world. This predicament is exemplified by time consuming model
selection and the difficulties faced in predictive explainability, especially
in the presence of adversarial examples. In this paper, we take a step towards
better understanding of neural networks by introducing a local polytope
interpolation method. The proposed Deep Non Negative Kernel regression (NNK)
interpolation framework is non parametric, theoretically simple and
geometrically intuitive. We demonstrate instance based explainability for deep
learning models and develop a method to identify models with good
generalization properties using leave one out estimation. Finally, we draw a
rationalization to adversarial and generative examples which are inevitable
from an interpolation view of machine learning.
- Abstract(参考訳): ニューラルネットワークに基づく現代の機械学習システムは、複雑なデータパターンを学習し、目に見えないデータポイントについて良い予測をすることができる。
しかし、これらのシステムの限られた解釈性は、現実世界のいくつかの領域へのさらなる進歩と応用を妨げる。
この傾向は, モデル選択に要する時間と, 予測可能性に直面する困難, 特に敵対例の存在によって実証される。
本稿では,局所的なポリトープ補間法を導入することにより,ニューラルネットワークの理解を深める。
深部非負核回帰(nnk)補間フレームワークは非パラメトリックであり、理論的に単純であり、幾何学的に直感的である。
深層学習モデルのインスタンスベース説明可能性を示し, 1 つの推定値を用いた一般化特性のよいモデル同定手法を開発した。
最後に,機械学習の補間的視点では避けられない,逆行例と生成例の合理化について述べる。
関連論文リスト
- Nonlinear classification of neural manifolds with contextual information [6.292933471495322]
多様体容量は、人口幾何学とニューラル多様体の分離性とを結びつける有望な枠組みとして出現している。
本稿では,文脈入力情報を活用することによって,この制限を克服する理論的枠組みを提案する。
我々のフレームワークの表現性の向上は、階層階層の初期段階のディープネットワークにおける表現アンハングメントをキャプチャするが、以前は分析にはアクセスできない。
論文 参考訳(メタデータ) (2024-05-10T23:37:31Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Reliable extrapolation of deep neural operators informed by physics or
sparse observations [2.887258133992338]
ディープニューラルネットワークは、ディープニューラルネットワークを介して無限次元関数空間間の非線形マッピングを学習することができる。
DeepONetsは科学と工学の新しいシミュレーションパラダイムを提供する。
本稿では,外挿下での安全な予測を保証する5つの信頼性学習手法を提案する。
論文 参考訳(メタデータ) (2022-12-13T03:02:46Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Gaussian Process Surrogate Models for Neural Networks [6.8304779077042515]
科学と工学において、モデリング(英: modeling)とは、内部プロセスが不透明な複雑なシステムを理解するために用いられる方法論である。
本稿では,ガウス過程を用いたニューラルネットワークの代理モデルのクラスを構築する。
提案手法は,ニューラルネットワークのスペクトルバイアスに関連する既存の現象を捕捉し,サロゲートモデルを用いて現実的な問題を解決することを実証する。
論文 参考訳(メタデータ) (2022-08-11T20:17:02Z) - An Information-Theoretic Framework for Supervised Learning [22.280001450122175]
後悔とサンプルの複雑さという独自の概念を持つ新しい情報理論フレームワークを提案する。
本稿では、ReLUアクティベーションユニットを用いたディープニューラルネットワークによって生成されたデータから学習する際のサンプルの複雑さについて検討する。
我々は、ランダムな単層ニューラルネットワークの実験的な解析により、理論結果を裏付けることで結論付ける。
論文 参考訳(メタデータ) (2022-03-01T05:58:28Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。