論文の概要: Watch and learn -- a generalized approach for transferrable learning in
deep neural networks via physical principles
- arxiv url: http://arxiv.org/abs/2003.02647v1
- Date: Tue, 3 Mar 2020 18:37:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 23:35:58.579119
- Title: Watch and learn -- a generalized approach for transferrable learning in
deep neural networks via physical principles
- Title(参考訳): watch and learn --物理原理によるディープニューラルネットワークにおけるトランスファー可能な学習の一般化アプローチ
- Authors: Kyle Sprague and Juan Carrasquilla and Steve Whitelam and Isaac
Tamblyn
- Abstract要約: 本研究では,物理状態の異なる統計物理学における問題に対して,完全に伝達可能な学習を実現するための教師なし学習手法を実証する。
逐次ニューラルネットワークに基づくシーケンスモデルを広範囲のディープニューラルネットワークに結合することにより、古典的な統計力学系の平衡確率分布と粒子間相互作用モデルを学ぶことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning refers to the use of knowledge gained while solving a
machine learning task and applying it to the solution of a closely related
problem. Such an approach has enabled scientific breakthroughs in computer
vision and natural language processing where the weights learned in
state-of-the-art models can be used to initialize models for other tasks which
dramatically improve their performance and save computational time. Here we
demonstrate an unsupervised learning approach augmented with basic physical
principles that achieves fully transferrable learning for problems in
statistical physics across different physical regimes. By coupling a sequence
model based on a recurrent neural network to an extensive deep neural network,
we are able to learn the equilibrium probability distributions and
inter-particle interaction models of classical statistical mechanical systems.
Our approach, distribution-consistent learning, DCL, is a general strategy that
works for a variety of canonical statistical mechanical models (Ising and
Potts) as well as disordered (spin-glass) interaction potentials. Using data
collected from a single set of observation conditions, DCL successfully
extrapolates across all temperatures, thermodynamic phases, and can be applied
to different length-scales. This constitutes a fully transferrable
physics-based learning in a generalizable approach.
- Abstract(参考訳): 転送学習とは、機械学習タスクを解き、密接に関連する問題の解にそれを適用する際に得られる知識の使用を指す。
このようなアプローチはコンピュータビジョンや自然言語処理において科学的なブレークスルーを可能にしており、最先端のモデルで学んだ重みを他のタスクのモデルの初期化に利用することで、パフォーマンスを劇的に改善し、計算時間を節約することができる。
本稿では,統計物理学における諸問題に対する完全転送可能な学習を実現する基本物理原理を付加した教師なし学習手法を示す。
逐次ニューラルネットワークに基づくシーケンスモデルを広範囲のディープニューラルネットワークに結合することにより、古典的な統計力学系の平衡確率分布と粒子間相互作用モデルを学ぶことができる。
我々のアプローチである分布一貫性学習(DCL)は、様々な標準統計力学モデル(IsingとPotts)と、乱れた(スピングラス)相互作用ポテンシャルのために機能する一般的な戦略である。
1組の観測条件から収集されたデータを用いて、DCLは全ての温度、熱力学的位相をうまく外挿し、異なる長さスケールに適用できる。
これは、一般化可能なアプローチで完全に変換可能な物理ベースの学習を構成する。
関連論文リスト
- Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Learning Latent Dynamics via Invariant Decomposition and
(Spatio-)Temporal Transformers [0.6767885381740952]
本研究では,高次元経験データから力学系を学習する手法を提案する。
我々は、システムの複数の異なるインスタンスからデータが利用できる設定に焦点を当てる。
我々は、単純な理論的分析と、合成および実世界のデータセットに関する広範な実験を通して行動を研究する。
論文 参考訳(メタデータ) (2023-06-21T07:52:07Z) - Stretched and measured neural predictions of complex network dynamics [2.1024950052120417]
微分方程式のデータ駆動近似は、力学系のモデルを明らかにする従来の方法に代わる有望な方法である。
最近、ダイナミックスを研究する機械学習ツールとしてニューラルネットワークが採用されている。これは、データ駆動型ソリューションの検出や微分方程式の発見に使用できる。
従来の統計学習理論の限界を超えてモデルの一般化可能性を拡張することは可能であることを示す。
論文 参考訳(メタデータ) (2023-01-12T09:44:59Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Unsupervised and supervised learning of interacting topological phases
from single-particle correlation functions [0.0]
本研究では、教師なしおよび教師なしの機械学習技術が、解決可能なモデルのデータに基づいて訓練された場合、正確には解決不可能なモデルのフェーズを予測することができることを示す。
特に,非相互作用量子ワイヤの単一粒子相関関数を用いたトレーニングセットを用いる。
非相互作用モデルのデータに基づいてトレーニングされた主成分分析と畳み込みニューラルネットワークの両方が、相互作用モデルの位相位相を高い精度で識別できることを示す。
論文 参考訳(メタデータ) (2022-02-18T16:02:29Z) - Constructing Neural Network-Based Models for Simulating Dynamical
Systems [59.0861954179401]
データ駆動モデリングは、真のシステムの観測からシステムの力学の近似を学ぼうとする代替パラダイムである。
本稿では,ニューラルネットワークを用いた動的システムのモデル構築方法について検討する。
基礎的な概要に加えて、関連する文献を概説し、このモデリングパラダイムが克服すべき数値シミュレーションから最も重要な課題を概説する。
論文 参考訳(メタデータ) (2021-11-02T10:51:42Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Physics-based polynomial neural networks for one-shot learning of
dynamical systems from one or a few samples [0.0]
本論文は, 単純な振り子と世界最大規模のX線源の双方について, 実測結果について述べる。
提案手法により, ノイズ, 制限, 部分的な観測から複雑な物理を復元することができることが実証された。
論文 参考訳(メタデータ) (2020-05-24T09:27:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。