論文の概要: Towards Novel Insights in Lattice Field Theory with Explainable Machine
Learning
- arxiv url: http://arxiv.org/abs/2003.01504v2
- Date: Mon, 18 May 2020 14:04:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 23:36:37.488957
- Title: Towards Novel Insights in Lattice Field Theory with Explainable Machine
Learning
- Title(参考訳): 説明可能な機械学習による格子場理論の新展開に向けて
- Authors: Stefan Bluecher, Lukas Kades, Jan M. Pawlowski, Nils Strodthoff,
Julian M. Urban
- Abstract要約: 本稿では,可観測物の識別のための枠組みとして,解釈可能性法と組み合わせて表現学習を提案する。
このアプローチは (2+1)d のスカラー湯河モデルの文脈で機能する。
本研究の結果から, LRPなどの帰属法は適用可能性の広さから, 新たな身体的洞察を探索する上で有用かつ多用途なツールであることが示唆された。
- 参考スコア(独自算出の注目度): 1.5854412882298003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning has the potential to aid our understanding of phase
structures in lattice quantum field theories through the statistical analysis
of Monte Carlo samples. Available algorithms, in particular those based on deep
learning, often demonstrate remarkable performance in the search for previously
unidentified features, but tend to lack transparency if applied naively. To
address these shortcomings, we propose representation learning in combination
with interpretability methods as a framework for the identification of
observables. More specifically, we investigate action parameter regression as a
pretext task while using layer-wise relevance propagation (LRP) to identify the
most important observables depending on the location in the phase diagram. The
approach is put to work in the context of a scalar Yukawa model in (2+1)d.
First, we investigate a multilayer perceptron to determine an importance
hierarchy of several predefined, standard observables. The method is then
applied directly to the raw field configurations using a convolutional network,
demonstrating the ability to reconstruct all order parameters from the learned
filter weights. Based on our results, we argue that due to its broad
applicability, attribution methods such as LRP could prove a useful and
versatile tool in our search for new physical insights. In the case of the
Yukawa model, it facilitates the construction of an observable that
characterises the symmetric phase.
- Abstract(参考訳): 機械学習は、モンテカルロサンプルの統計解析を通じて格子量子場理論の位相構造を理解するのに役立つ可能性がある。
利用可能なアルゴリズム、特にディープラーニングに基づくアルゴリズムは、以前は特定されていなかった特徴を探索する際、顕著な性能を示すことが多い。
これらの欠点に対処するために,可観測物の識別のためのフレームワークとして,解釈可能性法と組み合わせて表現学習を提案する。
より具体的には、位相図上の位置に応じて最も重要な可観測物を特定するために、レイヤワイズ関連伝搬(LRP)を用いて、プレテキストタスクとしてのアクションパラメータ回帰を調査する。
このアプローチは (2+1)d におけるスカラー・ユカワモデルの文脈で機能する。
まず,複数の既定標準観測値の重要階層を決定するための多層パーセプトロンについて検討する。
この手法は畳み込みネットワークを用いて直接原フィールド構成に適用され、学習したフィルタ重みから全ての順序パラメータを再構成する能力を示す。
本研究の結果から, LRPなどの帰属法は適用可能性の広さから, 新たな身体的洞察を探索する上で有用かつ多用途なツールであることが示唆された。
湯川モデルの場合、対称位相を特徴付ける可観測性の構築を容易にする。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Cross-Entropy Is All You Need To Invert the Data Generating Process [29.94396019742267]
経験的現象は、教師付きモデルが線形な方法で変化の解釈可能な要因を学習できることを示唆している。
近年の自己教師型学習の進歩により,データ生成過程を反転させることで潜在構造を復元できることが示されている。
標準分類タスクにおいても,モデルが線形変換までの変動の基底構造因子の表現を学習することが証明された。
論文 参考訳(メタデータ) (2024-10-29T09:03:57Z) - Characterizing out-of-distribution generalization of neural networks: application to the disordered Su-Schrieffer-Heeger model [38.79241114146971]
本稿では、量子位相の分類を訓練したニューラルネットワークの予測において、解釈可能性の手法が信頼を高める方法を示す。
特に, 複雑な分類問題において, 分配外分布の一般化を確実にできることを示す。
この研究は,解釈可能性手法の体系的利用が,科学的問題におけるNNの性能をいかに向上させるかを示す一例である。
論文 参考訳(メタデータ) (2024-06-14T13:24:32Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Beyond Cuts in Small Signal Scenarios -- Enhanced Sneutrino
Detectability Using Machine Learning [0.0]
我々は2つの異なるモデル、XGBoostとディープニューラルネットワークを使用して、可観測物間の相関を利用しています。
モデルの出力を分析する異なる手法を検討し、テンプレートの適合が単純なカットよりも一般的に優れていることを発見した。
論文 参考訳(メタデータ) (2021-08-06T13:48:19Z) - Prequential MDL for Causal Structure Learning with Neural Networks [9.669269791955012]
ベイジアンネットワークの実用的スコアリング関数を導出するために,事前最小記述長の原理が利用できることを示す。
我々は、調整しなければならない事前やその他の正規化子を誘導するスパーシリティに頼ることなく、可塑性および擬似グラフ構造を得る。
本研究は, 適応速度から因果構造を推定する最近の研究と, 分布変化の源泉から観測結果が得られた場合の因果構造との関係について考察する。
論文 参考訳(メタデータ) (2021-07-02T22:35:21Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。