論文の概要: Characterizing out-of-distribution generalization of neural networks: application to the disordered Su-Schrieffer-Heeger model
- arxiv url: http://arxiv.org/abs/2406.10012v1
- Date: Fri, 14 Jun 2024 13:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 13:35:39.752898
- Title: Characterizing out-of-distribution generalization of neural networks: application to the disordered Su-Schrieffer-Heeger model
- Title(参考訳): ニューラルネットワークのアウト・オブ・ディストリビューション一般化のキャラクタリゼーション:乱れたSu-Schrieffer-Heegerモデルへの応用
- Authors: Kacper Cybiński, Marcin Płodzień, Michał Tomza, Maciej Lewenstein, Alexandre Dauphin, Anna Dawid,
- Abstract要約: 本稿では、量子位相の分類を訓練したニューラルネットワークの予測において、解釈可能性の手法が信頼を高める方法を示す。
特に, 複雑な分類問題において, 分配外分布の一般化を確実にできることを示す。
この研究は,解釈可能性手法の体系的利用が,科学的問題におけるNNの性能をいかに向上させるかを示す一例である。
- 参考スコア(独自算出の注目度): 38.79241114146971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) is a promising tool for the detection of phases of matter. However, ML models are also known for their black-box construction, which hinders understanding of what they learn from the data and makes their application to novel data risky. Moreover, the central challenge of ML is to ensure its good generalization abilities, i.e., good performance on data outside the training set. Here, we show how the informed use of an interpretability method called class activation mapping (CAM), and the analysis of the latent representation of the data with the principal component analysis (PCA) can increase trust in predictions of a neural network (NN) trained to classify quantum phases. In particular, we show that we can ensure better out-of-distribution generalization in the complex classification problem by choosing such an NN that, in the simplified version of the problem, learns a known characteristic of the phase. We show this on an example of the topological Su-Schrieffer-Heeger (SSH) model with and without disorder, which turned out to be surprisingly challenging for NNs trained in a supervised way. This work is an example of how the systematic use of interpretability methods can improve the performance of NNs in scientific problems.
- Abstract(参考訳): 機械学習(ML)は、物質の相を検出するための有望なツールである。
しかし、MLモデルはブラックボックス構造でも知られており、データから何を学んだかを理解するのを妨げ、新しいデータにリスクを負わせる。
さらに、MLの主な課題は、その優れた一般化能力、すなわちトレーニングセット外のデータに対する優れたパフォーマンスを保証することである。
ここでは、クラスアクティベーションマッピング(CAM)と呼ばれる解釈可能性手法のインフォームド利用と、主成分分析(PCA)によるデータの潜在表現の分析が、量子位相を分類するために訓練されたニューラルネットワーク(NN)の予測における信頼を高める方法を示す。
特に, 複雑な分類問題において, このようなNNを選択することで, 相の既知特性を学習することで, 分配外分布の一般化を確実にできることを示す。
本研究は,SSHモデルと障害のないトポロジカル・シュリーファー・ヘーガー(SSH)モデルを例に示す。
この研究は,解釈可能性手法の体系的利用が,科学的問題におけるNNの性能をいかに向上させるかを示す一例である。
関連論文リスト
- Problem-informed Graphical Quantum Generative Learning [0.3914676152740143]
確率変数の共役確率分布を学習するための問題インフォームド量子回路Born Machine Ansatzを提案する。
モデルの性能を従来の設計と比較し,問題に依存しない回路よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-23T00:29:35Z) - ECATS: Explainable-by-design concept-based anomaly detection for time series [0.5956301166481089]
本稿では,概念をSTL(Signal Temporal Logic)公式として表現する概念に基づくニューロシンボリックアーキテクチャであるECATSを提案する。
我々は,局所的な解釈可能性を確保しつつ,優れた分類性能が得られることを示す。
論文 参考訳(メタデータ) (2024-05-17T08:12:53Z) - Active Learning with Fully Bayesian Neural Networks for Discontinuous and Nonstationary Data [0.0]
我々は,「小さなデータ」体制下でのアクティブな学習タスクに対して,完全ベイズニューラルネットワーク(FBNN)を導入する。
FBNNは信頼性の高い予測分布を提供し、アクティブな学習環境における不確実性の下で情報的意思決定に不可欠である。
そこで我々は,FBNNの「小型データ」システムにおけるアクティブな学習課題に対するNo-U-Turn Samplerを用いて,FBNNの適合性と性能を評価する。
論文 参考訳(メタデータ) (2024-05-16T05:20:47Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Look beyond labels: Incorporating functional summary information in
Bayesian neural networks [11.874130244353253]
予測確率に関する要約情報を組み込むための簡単な手法を提案する。
利用可能な要約情報は、拡張データとして組み込まれ、ディリクレプロセスでモデル化される。
本稿では,タスクの難易度やクラス不均衡をモデルに示す方法について述べる。
論文 参考訳(メタデータ) (2022-07-04T07:06:45Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Enhancing Mixup-based Semi-Supervised Learning with Explicit Lipschitz
Regularization [5.848916882288327]
半教師付き学習(SSL)は、大きなラベルのないデータ上での神経機能の振る舞いを活用することで、この課題を緩和する。
成功例は、ニューラルネットワークのグローバルなスムーズさを強制する、SSLでのミックスアップ戦略の採用である。
ニューラルネットワークの勾配関数のリプシッツ定数をバウンドすることで、ミキサップは神経機能の滑らかさを改善する。
論文 参考訳(メタデータ) (2020-09-23T23:19:19Z) - Phase Detection with Neural Networks: Interpreting the Black Box [58.720142291102135]
ニューラルネットワーク(NN)は通常、予測の背後にある推論に対する洞察を妨げます。
本研究では,1次元拡張スピンレスFermi-Hubbardモデルの位相を半充足で予測するために,NNのブラックボックスをいかに影響関数が解き放つかを示す。
論文 参考訳(メタデータ) (2020-04-09T17:45:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。