論文の概要: Why is topology hard to learn?
- arxiv url: http://arxiv.org/abs/2509.26261v1
- Date: Tue, 30 Sep 2025 13:48:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.56138
- Title: Why is topology hard to learn?
- Title(参考訳): なぜトポロジーを学ぶのが難しいのか?
- Authors: D. O. Oriekhov, Stan Bergkamp, Guliuxin Jin, Juan Daniel Torres Luna, Badr Zouggari, Sibren van der Meer, Naoual El Yazidi, Eliska Greplova,
- Abstract要約: 我々は、物理量の概念と、その機械学習近似を、物理学におけるニューラルネットワークの本来の応用という文脈で橋渡しする。
実空間位相不変量を正確に表現するハイブリッドテンソル-ニューラルネットワークオブジェクトを構築する。
我々の研究は、トポロジカル不変量学習の課題を強調し、凝縮物質物理学におけるより正確でより一般化可能な機械学習表現への一歩となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much attention has been devoted to the use of machine learning to approximate physical concepts. Yet, due to challenges in interpretability of machine learning techniques, the question of what physics machine learning models are able to learn remains open. Here we bridge the concept a physical quantity and its machine learning approximation in the context of the original application of neural networks in physics: topological phase classification. We construct a hybrid tensor-neural network object that exactly expresses real space topological invariant and rigorously assess its trainability and generalization. Specifically, we benchmark the accuracy and trainability of a tensor-neural network to multiple types of neural networks, thus exemplifying the differences in trainability and representational power. Our work highlights the challenges in learning topological invariants and constitutes a stepping stone towards more accurate and better generalizable machine learning representations in condensed matter physics.
- Abstract(参考訳): 物理的な概念を近似するために機械学習を使うことに多くの注意が向けられている。
しかし、機械学習技術の解釈可能性の課題のため、どのような物理モデルが学習できるのかという問題は未解決のままである。
ここでは、物理量の概念と、その機械学習近似を、トポロジカル位相分類(topological phase classification)という、物理学におけるニューラルネットワークの当初の応用の文脈で橋渡しする。
実空間トポロジ的不変性を正確に表現し、そのトレーニング性と一般化を厳密に評価するハイブリッドテンソル-神経ネットワークオブジェクトを構築した。
具体的には、テンソルニューラルネットワークの精度とトレーニング性を複数のタイプのニューラルネットワークにベンチマークし、トレーニング可能性と表現力の違いを実証する。
我々の研究は、トポロジカル不変量学習の課題を強調し、凝縮物質物理学におけるより正確でより一般化可能な機械学習表現への一歩となる。
関連論文リスト
- High-entropy Advantage in Neural Networks' Generalizability [7.193952396909214]
現代の機械学習における中心的な課題の1つは、ニューラルネットワークがトレーニングデータから学習した知識を、目に見えないテストデータに一般化する方法を理解することである。
ここでは、重みとバイアスが原子座標であり、損失関数がポテンシャルエネルギーである仮説分子系として、ニューラルネットワークへのボルツマンエントロピーの概念を紹介する。
分子シミュレーションアルゴリズムを用いることで、最大100万のパラメータを持つネットワーク上でのトレーニング損失とテスト精度(またはテスト損失)の両方の関数として、エントロピーランドスケープを4つの異なる機械学習タスクで計算する。
論文 参考訳(メタデータ) (2025-03-17T13:16:25Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Gaussian Process Surrogate Models for Neural Networks [6.8304779077042515]
科学と工学において、モデリング(英: modeling)とは、内部プロセスが不透明な複雑なシステムを理解するために用いられる方法論である。
本稿では,ガウス過程を用いたニューラルネットワークの代理モデルのクラスを構築する。
提案手法は,ニューラルネットワークのスペクトルバイアスに関連する既存の現象を捕捉し,サロゲートモデルを用いて現実的な問題を解決することを実証する。
論文 参考訳(メタデータ) (2022-08-11T20:17:02Z) - Privacy-preserving machine learning with tensor networks [37.01494003138908]
テンソルネットワークアーキテクチャは、特にプライバシー保護機械学習に期待できる特性を持つことを示す。
まず、フィードフォワードニューラルネットワークに存在する新たなプライバシ脆弱性を説明し、それを合成および実世界のデータセットで説明する。
このような条件がテンソルネットワークアーキテクチャによって満たされていることを厳密に証明する。
論文 参考訳(メタデータ) (2022-02-24T19:04:35Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Physics-informed ConvNet: Learning Physical Field from a Shallow Neural
Network [0.180476943513092]
マルチ物理システムのモデル化と予測は、避けられないデータ不足とノイズのために依然として課題である。
物理インフォームド・コンボリューション・ネットワーク(PICN)と呼ばれる新しいフレームワークは、CNNの観点から推奨されている。
PICNは物理インフォームド機械学習において、代替のニューラルネットワークソルバとなる可能性がある。
論文 参考訳(メタデータ) (2022-01-26T14:35:58Z) - The Physics of Machine Learning: An Intuitive Introduction for the
Physical Scientist [0.0]
この記事では、機械学習アルゴリズムに関する深い洞察を得たいと願う物理科学者を対象としている。
まず、エネルギーベースの2つの機械学習アルゴリズム、ホップフィールドネットワークとボルツマンマシンのレビューと、Isingモデルとの関係について述べる。
次に、フィードフォワードニューラルネットワーク、畳み込みニューラルネットワーク、オートエンコーダを含む、さらに"実践的"な機械学習アーキテクチャを掘り下げます。
論文 参考訳(メタデータ) (2021-11-27T15:12:42Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Explainable artificial intelligence for mechanics: physics-informing
neural networks for constitutive models [0.0]
メカニクスにおいて、物理インフォームドニューラルネットワークの新しい活発な分野は、機械的知識に基づいてディープニューラルネットワークを設計することによって、この欠点を緩和しようとする。
本論文では,機械データに訓練されたニューラルネットワークを後述する物理形成型アプローチへの第一歩を提案する。
これにより、主成分分析はRNNの細胞状態における分散表現をデコレーションし、既知の基本関数との比較を可能にする。
論文 参考訳(メタデータ) (2021-04-20T18:38:52Z) - Learning Contact Dynamics using Physically Structured Neural Networks [81.73947303886753]
ディープニューラルネットワークと微分方程式の接続を用いて、オブジェクト間の接触ダイナミクスを表現するディープネットワークアーキテクチャのファミリを設計する。
これらのネットワークは,ノイズ観測から不連続な接触事象をデータ効率良く学習できることを示す。
以上の結果から,タッチフィードバックの理想化形態は,この学習課題を扱いやすくするための重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2021-02-22T17:33:51Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。