論文の概要: A Spin Glass Characterization of Neural Networks
- arxiv url: http://arxiv.org/abs/2508.07397v1
- Date: Sun, 10 Aug 2025 15:53:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.839892
- Title: A Spin Glass Characterization of Neural Networks
- Title(参考訳): スピングラスによるニューラルネットワークのキャラクタリゼーション
- Authors: Jun Li,
- Abstract要約: 本研究はスピングラスのレプリカ対称性破壊現象を動機としたニューラルネットワークの統計力学特性を示す。
所定のフィードフォワードニューラルネットワーク(FNN)からホップフィールド型スピングラスモデルを構築する
- 参考スコア(独自算出の注目度): 4.122877372953095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents a statistical mechanics characterization of neural networks, motivated by the replica symmetry breaking (RSB) phenomenon in spin glasses. A Hopfield-type spin glass model is constructed from a given feedforward neural network (FNN). Overlaps between simulated replica samples serve as a characteristic descriptor of the FNN. The connection between the spin-glass description and commonly studied properties of the FNN -- such as data fitting, capacity, generalization, and robustness -- has been investigated and empirically demonstrated. Unlike prior analytical studies that focus on model ensembles, this method provides a computable descriptor for individual network instances, which reveals nontrivial structural properties that are not captured by conventional metrics such as loss or accuracy. Preliminary results suggests its potential for practical applications such as model inspection, safety verification, and detection of hidden vulnerabilities.
- Abstract(参考訳): この研究は、スピングラスにおけるレプリカ対称性破壊(RSB)現象によって動機付けられたニューラルネットワークの統計力学特性を示す。
ホップフィールド型スピングラスモデルは、与えられたフィードフォワードニューラルネットワーク(FNN)から構築される。
模擬レプリカサンプル間のオーバーラップは、FNNの特徴的な記述子として機能する。
スピングラスの記述と、データフィッティング、キャパシティ、一般化、ロバストネスといったFNNの一般的な研究特性の関連性は、実験的に研究され実証されている。
モデルアンサンブルに焦点を当てた以前の分析研究とは異なり、この手法は個々のネットワークインスタンスに対して計算可能な記述子を提供する。
予備的な結果は、モデル検査、安全性検証、隠れた脆弱性の検出など、実用的な応用の可能性を示している。
関連論文リスト
- Uncertainty propagation in feed-forward neural network models [3.987067170467799]
我々はフィードフォワードニューラルネットワークアーキテクチャのための新しい不確実性伝搬法を開発した。
ニューラルネットワーク出力の確率密度関数(PDF)の解析式を導出する。
鍵となる発見は、リークReLU活性化関数の適切な線形化が正確な統計的結果をもたらすことである。
論文 参考訳(メタデータ) (2025-03-27T00:16:36Z) - Towards Understanding the Benefits of Neural Network Parameterizations in Geophysical Inversions: A Study With Neural Fields [1.7396556690675236]
本研究では、ニューラルネットワークを用いて、その座標における対応する物理特性値に座標をマッピングする。
テスト時間学習法では、トレーニングデータセットを使用してネットワークをトレーニングする必要がある従来のアプローチと比較して、ウェイトをインバージョン中に学習する。
論文 参考訳(メタデータ) (2025-03-21T19:32:52Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - A Novel Explainable Out-of-Distribution Detection Approach for Spiking
Neural Networks [6.100274095771616]
この研究は、スパイキングニューラルネットワークに入力されたテスト例がトレーニングされたデータの分布に属するかどうかを識別できる新しいOoD検出器を提案する。
我々は、スパイクカウントパターンの形で、ネットワークの隠蔽層の内部活性化を特徴付ける。
入力インスタンスのどの部分が最もOoDサンプルとして検出されるかを明らかにする属性マップを作成するために,局所的な説明法が考案された。
論文 参考訳(メタデータ) (2022-09-30T11:16:35Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Phase Detection with Neural Networks: Interpreting the Black Box [58.720142291102135]
ニューラルネットワーク(NN)は通常、予測の背後にある推論に対する洞察を妨げます。
本研究では,1次元拡張スピンレスFermi-Hubbardモデルの位相を半充足で予測するために,NNのブラックボックスをいかに影響関数が解き放つかを示す。
論文 参考訳(メタデータ) (2020-04-09T17:45:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。