論文の概要: Emergence of a finite-size-scaling function in the supervised learning
of the Ising phase transition
- arxiv url: http://arxiv.org/abs/2010.00351v2
- Date: Wed, 17 Feb 2021 03:02:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 07:44:43.543080
- Title: Emergence of a finite-size-scaling function in the supervised learning
of the Ising phase transition
- Title(参考訳): イジング相転移の教師付き学習における有限サイズスケーリング関数の出現
- Authors: Dongkyu Kim and Dong-Hee Kim
- Abstract要約: 強磁性イジングモデルにおける二相分類の教師付き学習と二階相転移の標準有限サイズスケーリング理論との関係について検討する。
1つの自由パラメータだけで、ネットワーク出力における普遍的な有限サイズスケーリング関数の出現を記述するのに十分であることを示す。
- 参考スコア(独自算出の注目度): 0.7658140759553149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the connection between the supervised learning of the binary
phase classification in the ferromagnetic Ising model and the standard
finite-size-scaling theory of the second-order phase transition. Proposing a
minimal one-free-parameter neural network model, we analytically formulate the
supervised learning problem for the canonical ensemble being used as a training
data set. We show that just one free parameter is capable enough to describe
the data-driven emergence of the universal finite-size-scaling function in the
network output that is observed in a large neural network, theoretically
validating its critical point prediction for unseen test data from different
underlying lattices yet in the same universality class of the Ising
criticality. We also numerically demonstrate the interpretation with the
proposed one-parameter model by providing an example of finding a critical
point with the learning of the Landau mean-field free energy being applied to
the real data set from the uncorrelated random scale-free graph with a large
degree exponent.
- Abstract(参考訳): 強磁性イジングモデルにおける2次相分類の教師あり学習と2次相転移の標準有限サイズスケーリング理論との関係について検討した。
最小1自由パラメータニューラルネットモデルを用いて、訓練データセットとして使用される標準アンサンブルの教師付き学習問題を解析的に定式化する。
1つの自由パラメータだけで、大きなニューラルネットワークで観測されるネットワーク出力における普遍有限サイズスケーリング関数のデータ駆動的出現を記述することができ、理論的には、異なる基盤格子からの未確認テストデータの臨界点予測を、Ising臨界の同じ普遍性クラスで検証することができる。
また,提案した1パラメータモデルによる解釈を数値的に示すため,Landau平均場自由エネルギーの学習における臨界点の探索を,非相関な乱スケールフリーグラフと高次指数を持つ実データに適用した例を示す。
関連論文リスト
- Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - The twin peaks of learning neural networks [3.382017614888546]
近年の研究では、ニューラルネットワークの一般化誤差に対する二重発光現象の存在が示されている。
この現象とニューラルネットワークで表される関数の複雑さと感度の増大との関係について検討する。
論文 参考訳(メタデータ) (2024-01-23T10:09:14Z) - The Decimation Scheme for Symmetric Matrix Factorization [0.0]
行列分解(Matrix factorization)は、その広範囲な応用により重要になった推論問題である。
我々はこの広範囲なランク問題について研究し、最近導入した代替の「決定」手順を拡張した。
本稿では,デシメーションを実装し,行列分解を行う基底状態探索に基づく簡単なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:53:45Z) - Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network [59.79008107609297]
本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
論文 参考訳(メタデータ) (2023-05-30T19:16:44Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Dense Hebbian neural networks: a replica symmetric picture of
unsupervised learning [4.133728123207142]
我々は、監督なしで訓練された密集的で連想的なニューラルネットを考える。
本稿では,モンテカルロシミュレーションを用いて,その計算能力を解析的に,統計力学的手法を用いて,数値解析的に検討する。
論文 参考訳(メタデータ) (2022-11-25T12:40:06Z) - Semi-Supervised Clustering of Sparse Graphs: Crossing the
Information-Theoretic Threshold [3.6052935394000234]
ブロックモデルは、ネットワーク構造データのクラスタリングとコミュニティ検出のための標準ランダムグラフモデルである。
ネットワークトポロジに基づく推定器は、モデルパラメータが一定の閾値以下である場合、スパースグラフの確率よりも大幅に向上する。
パラメータ領域全体でラベルの任意の部分で実現可能であることを示す。
論文 参考訳(メタデータ) (2022-05-24T00:03:25Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z) - Adding machine learning within Hamiltonians: Renormalization group
transformations, symmetry breaking and restoration [0.0]
我々は、位相分類のために設計されたニューラルネットワークの予測関数を、系のハミルトニアン内の外部磁場に結合した共役変数として含む。
結果は, 対称性を破り, 復元することで, 秩序相転移を誘導できることを示す。
機械学習と物理をブリッジする上で,この手法がいかに重要なステップを提供するかを論じる。
論文 参考訳(メタデータ) (2020-09-30T18:44:18Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。