論文の概要: Similarity of Neural Networks with Gradients
- arxiv url: http://arxiv.org/abs/2003.11498v1
- Date: Wed, 25 Mar 2020 17:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:57:41.043881
- Title: Similarity of Neural Networks with Gradients
- Title(参考訳): 勾配を持つニューラルネットワークの類似性
- Authors: Shuai Tang, Wesley J. Maddox, Charlie Dickens, Tom Diethe, Andreas
Damianou
- Abstract要約: 本稿では,特徴ベクトルと勾配ベクトルの両方を利用してニューラルネットワークの表現を設計することを提案する。
提案手法はニューラルネットワークの類似性を計算するための最先端の手法を提供する。
- 参考スコア(独自算出の注目度): 8.804507286438781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A suitable similarity index for comparing learnt neural networks plays an
important role in understanding the behaviour of the highly-nonlinear
functions, and can provide insights on further theoretical analysis and
empirical studies. We define two key steps when comparing models: firstly, the
representation abstracted from the learnt model, where we propose to leverage
both feature vectors and gradient ones (which are largely ignored in prior
work) into designing the representation of a neural network. Secondly, we
define the employed similarity index which gives desired invariance properties,
and we facilitate the chosen ones with sketching techniques for comparing
various datasets efficiently. Empirically, we show that the proposed approach
provides a state-of-the-art method for computing similarity of neural networks
that are trained independently on different datasets and the tasks defined by
the datasets.
- Abstract(参考訳): 学習ニューラルネットワークの比較に適した類似度指数は、高非線形関数の振る舞いを理解する上で重要な役割を担い、さらなる理論的解析と経験的研究に関する洞察を与えることができる。
まず、学習したモデルから抽象化された表現を定義し、そこで、特徴ベクトルと勾配ベクトルの両方(これは以前の作業では無視されていた)をニューラルネットワークの表現設計に活用することを提案する。
次に,所望の不変性を与える使用済みの類似性指標を定義し,様々なデータセットを効率的に比較するためのスケッチ技術を用いて,選択した類似性を評価する。
実験により,提案手法は,異なるデータセットとデータセットで定義されたタスクで独立に学習されるニューラルネットワークの類似性を計算するための最先端の手法であることを示す。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - Multilayer Multiset Neuronal Networks -- MMNNs [55.2480439325792]
本研究は,2層以上の類似性ニューロンを組み込んだ多層神経回路網について述べる。
また,回避すべき画像領域に割り当てられる反プロトタイプ点の利用についても検討した。
論文 参考訳(メタデータ) (2023-08-28T12:55:13Z) - Object-based Probabilistic Similarity Evidence of Sparse Latent Features
from Fully Convolutional Networks [0.0]
ニューラルネットワークを用いた類似性分析は、様々な領域の複雑なパターンを理解し分類するための強力な手法として登場した。
本研究は,完全畳み込みネットワーク(FCN)が生み出す潜伏情報の類似性解析における利用について検討する。
論文 参考訳(メタデータ) (2023-07-25T16:15:29Z) - Do Neural Networks Trained with Topological Features Learn Different
Internal Representations? [1.418465438044804]
本研究では、トポロジカルな特徴で訓練されたモデルが、元の生データで学習したモデルと根本的に異なるデータの内部表現を学習するかどうかを検討する。
構造的には、トポロジカルな特徴に基づいて訓練・評価されたモデルの隠れ表現は、対応する生データに基づいて訓練・評価されたモデルと大きく異なることがわかった。
これは、生データに基づいてトレーニングされたニューラルネットワークが、予測を行う過程で限られたトポロジ的特徴を抽出することを意味すると推測する。
論文 参考訳(メタデータ) (2022-11-14T19:19:04Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Similarity and Matching of Neural Network Representations [0.0]
我々は、深層ニューラルネットワークにおける表現の類似性を分析するために、Frankenstein博士と呼ばれるツールセットを使用します。
我々は、2つのトレーニングニューラルネットワークの与えられた層上でのアクティベーションを、縫合層で結合することで一致させることを目指している。
論文 参考訳(メタデータ) (2021-10-27T17:59:46Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Deep Representational Similarity Learning for analyzing neural
signatures in task-based fMRI dataset [81.02949933048332]
本稿では、表現類似度分析(RSA)の深部拡張であるDRSL(Deep Representational similarity Learning)を開発する。
DRSLは、多数の被験者を持つfMRIデータセットにおける様々な認知タスク間の類似性を分析するのに適している。
論文 参考訳(メタデータ) (2020-09-28T18:30:14Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Gradients as Features for Deep Representation Learning [26.996104074384263]
本稿では,事前学習したディープ・ネットワークを様々なタスクに適応させることによって,ディープ・表現学習の課題に対処する。
我々の重要な革新は、事前訓練されたネットワークの勾配と活性化の両方を組み込んだ線形モデルの設計である。
我々は,実際の勾配を計算せずに,モデルのトレーニングと推論を効率的に行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-12T02:57:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。