論文の概要: Locally Sparse Networks for Interpretable Predictions
- arxiv url: http://arxiv.org/abs/2106.06468v1
- Date: Fri, 11 Jun 2021 15:46:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 17:27:07.913572
- Title: Locally Sparse Networks for Interpretable Predictions
- Title(参考訳): 解釈可能な予測のための局所スパースネットワーク
- Authors: Junchen Yang, Ofir Lindenbaum, Yuval Kluger
- Abstract要約: 本稿では,局所的な疎度をサンプル固有のゲーティング機構を用いて学習する,局所スパースニューラルネットワークのトレーニングフレームワークを提案する。
サンプル固有の間隔は、テキスト予測ネットワークで予測され、テキスト予測ネットワークとタンデムでトレーニングされる。
本手法は,1インスタンスあたりの機能が少ないターゲット関数の予測において,最先端のモデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 7.362415721170984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the enormous success of neural networks, they are still hard to
interpret and often overfit when applied to low-sample-size (LSS) datasets. To
tackle these obstacles, we propose a framework for training locally sparse
neural networks where the local sparsity is learned via a sample-specific
gating mechanism that identifies the subset of most relevant features for each
measurement. The sample-specific sparsity is predicted via a \textit{gating}
network, which is trained in tandem with the \textit{prediction} network. By
learning these subsets and weights of a prediction model, we obtain an
interpretable neural network that can handle LSS data and can remove nuisance
variables, which are irrelevant for the supervised learning task. Using both
synthetic and real-world datasets, we demonstrate that our method outperforms
state-of-the-art models when predicting the target function with far fewer
features per instance.
- Abstract(参考訳): ニューラルネットワークは大きな成功を収めているが、低サンプルサイズ(lss)データセットに適用する場合、解釈が難しく、しばしば過剰に適合する。
これらの障害に対処するために,各測定において最も関連性の高い特徴のサブセットを識別するサンプル特異的ゲーティング機構を用いて,局所的な疎度を学習する,局所スパースニューラルネットワークのトレーニングフレームワークを提案する。
サンプル固有のスパーシリティは \textit{gating} ネットワークを介して予測され、これは \textit{prediction} ネットワークとタンデムでトレーニングされる。
予測モデルのこれらの部分集合と重みを学習することにより、LSSデータを処理し、教師付き学習タスクとは無関係なニュアンス変数を除去できる解釈可能なニューラルネットワークを得る。
本手法は,合成データと実世界のデータの両方を用いて,インスタンス毎にはるかに少ない機能で対象関数を予測した場合に,最先端のモデルを上回ることを実証する。
関連論文リスト
- Sampling weights of deep neural networks [1.2370077627846041]
完全に接続されたニューラルネットワークの重みとバイアスに対して,効率的なサンプリングアルゴリズムと組み合わせた確率分布を導入する。
教師付き学習環境では、内部ネットワークパラメータの反復最適化や勾配計算は不要である。
サンプルネットワークが普遍近似器であることを証明する。
論文 参考訳(メタデータ) (2023-06-29T10:13:36Z) - Iterative self-transfer learning: A general methodology for response
time-history prediction based on small dataset [0.0]
本研究では,小さなデータセットに基づいてニューラルネットワークを学習するための反復的自己伝達学習手法を提案する。
提案手法は,小さなデータセットに対して,ほぼ一桁の精度でモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T18:48:04Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Out-of-Distribution Example Detection in Deep Neural Networks using
Distance to Modelled Embedding [0.0]
予測時間における分布外例の検出に使用するDIME(Distance to Modelled Embedding)を提案する。
線形超平面として特徴空間に埋め込まれたトレーニングセットを近似することにより、単純で教師なし、高性能で計算効率の良い手法を導出する。
論文 参考訳(メタデータ) (2021-08-24T12:28:04Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - MLDS: A Dataset for Weight-Space Analysis of Neural Networks [0.0]
MLDSは、注意深く制御されたパラメータを持つ何千ものトレーニングニューラルネットワークからなる新しいデータセットである。
このデータセットは、モデル-to-modelとモデル-to-training-data関係に関する新たな洞察を可能にする。
論文 参考訳(メタデータ) (2021-04-21T14:24:26Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Sampling Prediction-Matching Examples in Neural Networks: A
Probabilistic Programming Approach [9.978961706999833]
本稿では,確率的プログラミングを用いた分類器の予測レベルセットの探索について考察する。
我々は,予測器が同一の特定の予測信頼度を持つ例のセットとして,予測レベルを定義した。
合成データセットとMNISTを用いた実験により,本手法を実証する。
論文 参考訳(メタデータ) (2020-01-09T15:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。