論文の概要: Designing a Dataset for Convolutional Neural Networks to Predict Space Groups Consistent with Extinction Laws
- arxiv url: http://arxiv.org/abs/2411.00803v1
- Date: Mon, 21 Oct 2024 05:32:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 12:31:17.011143
- Title: Designing a Dataset for Convolutional Neural Networks to Predict Space Groups Consistent with Extinction Laws
- Title(参考訳): 空間群予測のための畳み込みニューラルネットワーク用データセットの設計
- Authors: Hao Wang, Jiajun Zhong, Yikun Li, Junrong Zhang, Rong Du,
- Abstract要約: 本稿では,一次元粉末回折パターンからなるデータセットを用いて,畳み込みニューラルネットワークを学習し,空間群を予測する。
結晶データベースから生成する従来の戦略ではなく,格子パラメータと排他法則に基づいて回折パターンを計算した。
- 参考スコア(独自算出の注目度): 7.765329642828346
- License:
- Abstract: In this paper, we utilize a dataset composed of one-dimensional powder diffraction patterns to train Convolutional Neural Networks for predicting space groups. We used a new strategy to design the dataset, the diffraction pattern was calculated based the lattice parameters and the Extinction Laws, instead of the traditional strategy that generating it from the crystallographic database. This paper demonstrated that the new strategy is more reasonable than the traditional one. As a result, the model trained on the cubic and tetragonal training set from the newly designed dataset achieves prediction accuracy that matches the theoretical maximums calculated based on Extinction Laws. This result demonstrates that the machine learning based prediction can be physically reasonable and reliable. Additionally, the model trained on our new designed dataset shows better generalization capability than the one trained on a traditionally designed dataset.
- Abstract(参考訳): 本稿では,一次元粉末回折パターンからなるデータセットを用いて,畳み込みニューラルネットワークを学習し,空間群を予測する。
結晶データベースから生成する従来の戦略ではなく,格子パラメータと排他法則に基づいて回折パターンを計算した。
本稿は,新しい戦略が従来の戦略よりも合理的であることを実証した。
その結果、新たに設計されたデータセットから立方体と四角形のトレーニングセットをトレーニングしたモデルは、排他法則に基づいて計算された理論的最大値と一致する予測精度を達成する。
この結果は、機械学習に基づく予測が物理的に合理的で信頼性が高いことを示している。
さらに、新しい設計データセットでトレーニングされたモデルは、伝統的に設計されたデータセットでトレーニングされたモデルよりも、より優れた一般化能力を示している。
関連論文リスト
- DispFormer: Pretrained Transformer for Flexible Dispersion Curve Inversion from Global Synthesis to Regional Applications [59.488352977043974]
本研究では、レイリー波位相と群分散曲線から$v_s$プロファイルを反転させるトランスフォーマーベースのニューラルネットワークであるDispFormerを提案する。
結果は、ラベル付きデータなしでもゼロショットのDispFormerは、基底の真実とよく一致する逆プロファイルを生成することを示している。
論文 参考訳(メタデータ) (2025-01-08T09:08:24Z) - Enhancing Deep Learning based RMT Data Inversion using Gaussian Random Field [8.730845996892551]
本稿では, DLを用いた電波恒星データのインバージョン手法を提案する。
ネットワークの一般化能力は、アウト・オブ・ディストリビューション・データセットでテストされた。
本手法は,インド・ロルキー近郊の廃棄物処分場からの例証フィールドデータを用いて検証した。
論文 参考訳(メタデータ) (2024-10-22T19:47:30Z) - Generating Synthetic Ground Truth Distributions for Multi-step Trajectory Prediction using Probabilistic Composite Bézier Curves [4.837320865223374]
本稿では,合成確率的B'ezier曲線に基づく合成データセット生成手法を提案する。
本稿では, 生成した地中真実分布データを用いて, 模範的軌道予測モデルの評価を行う。
論文 参考訳(メタデータ) (2024-04-05T20:50:06Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - An unfolding method based on conditional Invertible Neural Networks
(cINN) using iterative training [0.0]
非可逆ニューラルネットワーク(INN)のような生成ネットワークは確率的展開を可能にする。
模擬トレーニングサンプルとデータ間のずれを調整した展開のための反復条件INN(IcINN)を導入する。
論文 参考訳(メタデータ) (2022-12-16T19:00:05Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - MLDS: A Dataset for Weight-Space Analysis of Neural Networks [0.0]
MLDSは、注意深く制御されたパラメータを持つ何千ものトレーニングニューラルネットワークからなる新しいデータセットである。
このデータセットは、モデル-to-modelとモデル-to-training-data関係に関する新たな洞察を可能にする。
論文 参考訳(メタデータ) (2021-04-21T14:24:26Z) - Experimental Design for Overparameterized Learning with Application to
Single Shot Deep Active Learning [5.141687309207561]
現代の機械学習モデルは、大量のラベル付きデータに基づいて訓練されている。
大量のラベル付きデータへのアクセスは、しばしば制限またはコストがかかる。
トレーニングセットをキュレートするための新しい設計戦略を提案する。
論文 参考訳(メタデータ) (2020-09-27T11:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。