論文の概要: Representational dissimilarity metric spaces for stochastic neural
networks
- arxiv url: http://arxiv.org/abs/2211.11665v1
- Date: Mon, 21 Nov 2022 17:32:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 23:12:12.201503
- Title: Representational dissimilarity metric spaces for stochastic neural
networks
- Title(参考訳): 確率的ニューラルネットワークに対する表現的異方性距離空間
- Authors: Lyndon R. Duong, Jingyang Zhou, Josue Nassar, Jules Berman, Jeroen
Olieslagers, Alex H. Williams
- Abstract要約: 神経表現の類似性を定量化することは、深層学習と神経科学研究における長年の問題である。
形状メトリクスを一般化して表現の違いを定量化する。
神経生物学的指向型視覚格子と自然主義的なシーンはそれぞれ、訓練されていない深層ネットワーク表現と訓練された深部ネットワーク表現に類似している。
- 参考スコア(独自算出の注目度): 4.229248343585332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantifying similarity between neural representations -- e.g. hidden layer
activation vectors -- is a perennial problem in deep learning and neuroscience
research. Existing methods compare deterministic responses (e.g. artificial
networks that lack stochastic layers) or averaged responses (e.g.,
trial-averaged firing rates in biological data). However, these measures of
deterministic representational similarity ignore the scale and geometric
structure of noise, both of which play important roles in neural computation.
To rectify this, we generalize previously proposed shape metrics (Williams et
al. 2021) to quantify differences in stochastic representations. These new
distances satisfy the triangle inequality, and thus can be used as a rigorous
basis for many supervised and unsupervised analyses. Leveraging this novel
framework, we find that the stochastic geometries of neurobiological
representations of oriented visual gratings and naturalistic scenes
respectively resemble untrained and trained deep network representations.
Further, we are able to more accurately predict certain network attributes
(e.g. training hyperparameters) from its position in stochastic (versus
deterministic) shape space.
- Abstract(参考訳): 神経表現の類似性(例えば、隠れ層活性化ベクトル)の定量化は、深層学習と神経科学研究における長年の問題である。
既存の手法では、決定論的応答(例えば、確率的層を欠いた人工ネットワーク)や平均的応答(例えば、生物データにおける試行平均発火率)を比較する。
しかし、これらの決定論的表現的類似性の尺度はノイズのスケールや幾何学的構造を無視し、どちらも神経計算において重要な役割を果たす。
これを正すため、前述した形状メトリクス(williams et al. 2021)を一般化し、確率表現の違いを定量化する。
これらの新しい距離は三角不等式を満たすので、多くの教師付きおよび教師なし分析の厳密な基礎として使うことができる。
この枠組みを活用することで、指向性視覚格子の神経生物学的表現の確率的ジオメトリと自然主義的なシーンはそれぞれ、訓練されていない深層ネットワーク表現と訓練された深部ネットワーク表現に類似していることが分かる。
さらに,特定のネットワーク属性(ハイパーパラメータのトレーニングなど)を,確率的(非決定論的)形状空間におけるその位置からより正確に予測することができる。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - A Spectral Theory of Neural Prediction and Alignment [8.65717258105897]
我々は、回帰からモデルと対象のスペクトル特性への一般化誤差を関連づける最近の理論的枠組みを用いる。
我々は、視覚的皮質活動を予測するディープニューラルネットワークを多数テストし、回帰によって測定された低ニューラルネットワーク予測誤差をもたらす複数のタイプのジオメトリーが存在することを示す。
論文 参考訳(メタデータ) (2023-09-22T12:24:06Z) - Multilayer Multiset Neuronal Networks -- MMNNs [55.2480439325792]
本研究は,2層以上の類似性ニューロンを組み込んだ多層神経回路網について述べる。
また,回避すべき画像領域に割り当てられる反プロトタイプ点の利用についても検討した。
論文 参考訳(メタデータ) (2023-08-28T12:55:13Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Invariants for neural automata [0.0]
我々は,異なる符号化条件下でのニューラルオートマトンの対称性と不変性を調べるための公式な枠組みを開発する。
我々の研究は、ニューロシンボリックプロセッサを用いた実世界の実測値の回帰研究において極めて重要である可能性がある。
論文 参考訳(メタデータ) (2023-02-04T11:40:40Z) - Isometric Representations in Neural Networks Improve Robustness [0.0]
我々は、クラス内メートル法構造を同時に維持しながら分類を行うためにニューラルネットワークを訓練する。
我々は、等尺正則化がMNISTに対する敵攻撃に対する堅牢性を改善することを検証する。
論文 参考訳(メタデータ) (2022-11-02T16:18:18Z) - Invariant Representations with Stochastically Quantized Neural Networks [5.7923858184309385]
本稿では,ニューラル層とセンシティブ属性間の相互情報の直接計算手法を提案する。
本手法は,公正表現学習における技術状況と良好に比較できることを示す。
論文 参考訳(メタデータ) (2022-08-04T13:36:06Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Mean-Field and Kinetic Descriptions of Neural Differential Equations [0.0]
この研究では、ニューラルネットワークの特定のクラス、すなわち残留ニューラルネットワークに焦点を当てる。
我々は、ネットワークのパラメータ、すなわち重みとバイアスに関する定常状態と感度を分析する。
残留ニューラルネットワークにインスパイアされた微視的ダイナミクスの修正は、ネットワークのフォッカー・プランクの定式化につながる。
論文 参考訳(メタデータ) (2020-01-07T13:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。