論文の概要: Classifying topological sector via machine learning
- arxiv url: http://arxiv.org/abs/1912.12410v1
- Date: Sat, 28 Dec 2019 06:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 13:02:10.393635
- Title: Classifying topological sector via machine learning
- Title(参考訳): 機械学習によるトポロジカルセクタの分類
- Authors: Masakiyo Kitazawa, Takuya Matsumoto, Yasuhiro Kohno
- Abstract要約: 真空中におけるSU(3)Yang-Mills理論におけるゲージ構成のトポロジカルチャージ$Q$の推定に機械学習手法を用いる。
トレーニングされたニューラルネットワークは, トポロジカル電荷密度から, 高精度に, 短時間で$Q$を推定できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We employ a machine learning technique for an estimate of the topological
charge $Q$ of gauge configurations in SU(3) Yang-Mills theory in vacuum. As a
first trial, we feed the four-dimensional topological charge density with and
without smoothing into the convolutional neural network and train it to
estimate the value of $Q$. We find that the trained neural network can estimate
the value of $Q$ from the topological charge density at small flow time with
high accuracy. Next, we perform the dimensional reduction of the input data as
a preprocessing and analyze lower dimensional data by the neural network. We
find that the accuracy of the neural network does not have
statistically-significant dependence on the dimension of the input data. From
this result we argue that the neural network does not find characteristic
features responsible for the determination of $Q$ in the higher dimensional
space.
- Abstract(参考訳): 真空中におけるSU(3)Yang-Mills理論におけるゲージ構成のトポロジカルチャージ$Q$の推定に機械学習手法を用いる。
最初の実験では、畳み込みニューラルネットワークに平滑化せずに4次元の位相電荷密度を供給し、それを訓練してq$を推定する。
トレーニングされたニューラルネットワークは, トポロジカル電荷密度から, 精度の高い小さな流速で$Q$を推定できることがわかった。
次に,前処理として入力データの次元削減を行い,ニューラルネットワークによる低次元データの解析を行う。
ニューラルネットワークの精度は、入力データの次元に統計的に重要な依存を持たないことがわかった。
この結果から、ニューラルネットワークは高次元空間における$q$の決定に寄与する特徴的特徴を見出さないと主張する。
関連論文リスト
- Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Normalization effects on deep neural networks [20.48472873675696]
ニューラルネットワークの出力の統計的挙動に対する$gamma_i$の選択の影響について検討する。
ニューラルネットワークの出力とテスト精度のばらつきの観点からは、$gamma_i$sを1にすることを選択すべきである。
論文 参考訳(メタデータ) (2022-09-02T17:05:55Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - The Rate of Convergence of Variation-Constrained Deep Neural Networks [35.393855471751756]
変動制約のあるニューラルネットワークのクラスは、任意に小さな定数$delta$に対して、ほぼパラメトリックレート$n-1/2+delta$を達成することができることを示す。
その結果、滑らかな関数の近似に必要な神経機能空間は、しばしば知覚されるものほど大きくない可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-22T21:28:00Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Mean-Field and Kinetic Descriptions of Neural Differential Equations [0.0]
この研究では、ニューラルネットワークの特定のクラス、すなわち残留ニューラルネットワークに焦点を当てる。
我々は、ネットワークのパラメータ、すなわち重みとバイアスに関する定常状態と感度を分析する。
残留ニューラルネットワークにインスパイアされた微視的ダイナミクスの修正は、ネットワークのフォッカー・プランクの定式化につながる。
論文 参考訳(メタデータ) (2020-01-07T13:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。