論文の概要: Flexible Cutoff Learning: Optimizing Machine Learning Potentials After Training
- arxiv url: http://arxiv.org/abs/2603.10205v1
- Date: Tue, 10 Mar 2026 20:14:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.674515
- Title: Flexible Cutoff Learning: Optimizing Machine Learning Potentials After Training
- Title(参考訳): フレキシブルカットオフ学習 - トレーニング後のマシンラーニングの可能性の最適化
- Authors: Rick Oerder, Jan Hamaekers,
- Abstract要約: 機械学習による原子間ポテンシャル(MLIP)の学習方法であるフレキシブルカットオフ学習(FCL)を紹介する。
FCLモデルは各原子に対してランダムにカットオフラジイをサンプリングすることによって訓練される。
結果として得られるモデルは、アプリケーションによって異なる原子単位のカットオフラジイでデプロイされる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Flexible Cutoff Learning (FCL), a method for training machine learning interatomic potentials (MLIPs) whose cutoff radii can be adjusted after training. Unlike conventional MLIPs that fix the cutoff radius during training, FCL models are trained by randomly sampling cutoff radii independently for each atom. The resulting model can then be deployed with different per-atom cutoff radii depending on the application, enabling application-specific optimization of the accuracy-cost tradeoff. Using a differentiable cost model, these per-atom cutoffs can be optimized for specific target systems after training. We demonstrate FCL with a modified MACE architecture trained on the MAD dataset. For a subset featuring molecular crystals, optimized per-atom cutoffs reduce computational cost by more than 60% while increasing force errors by less than 1%. These results show that FCL enables training of a single general-purpose MLIP that can be adapted to diverse applications through post-training cutoff optimization, eliminating the need for retraining.
- Abstract(参考訳): 本稿では,機械学習による原子間ポテンシャル(MLIP)の学習方法であるフレキシブルカットオフ学習(FCL)について紹介する。
トレーニング中にカットオフ半径を固定する従来のMLIPとは異なり、FCLモデルは各原子に対してランダムにカットオフ半径をサンプリングすることによって訓練される。
結果として得られたモデルは、アプリケーションによって異なる原子単位のカットオフラジイでデプロイされ、正確さとコストのトレードオフをアプリケーション固有の最適化を可能にします。
異なるコストモデルを使用することで、トレーニング後の特定のターゲットシステムにこれらの原子単位のカットオフを最適化することができる。
我々は、MADデータセットに基づいてトレーニングされたMACEアーキテクチャを改良したFCLを実演する。
分子結晶を含むサブセットでは、最適化された原子単位のカットオフにより計算コストは60%以上減少し、力の誤差は1%以下になる。
これらの結果から、FCLは、カットオフ後の最適化により多様なアプリケーションに適応できる単一の汎用MLIPのトレーニングが可能であり、再トレーニングの必要がなくなることが示唆された。
関連論文リスト
- Train Once, Forget Precisely: Anchored Optimization for Efficient Post-Hoc Unlearning [0.0]
深層画像分類器におけるポストホックアンラーニングのための理論的基礎と計算効率のよいフレームワークであるtextbfForget-Aligned Model Reconstruction (FAMR) を導入する。
FAMRフレームは、モデルパラメータを元の値に固定しながら、忘れセット上の均一な予測損失を最小限に抑える制約付き最適化問題である。
CIFAR-10とImageNet-100 FAMRによるクラス忘れタスクの実証的な結果が得られた。
論文 参考訳(メタデータ) (2025-06-17T13:40:48Z) - AutoHete: An Automatic and Efficient Heterogeneous Training System for LLMs [68.99086112477565]
トランスフォーマーベースの大規模言語モデル(LLM)は、シーケンスモデリングやテキスト生成において例外的な機能を示した。
既存の異種トレーニング手法は、トレーニング可能なモデルの規模を大幅に拡大するが、かなりの通信オーバーヘッドとCPUワークロードを導入している。
本稿では,シングルGPU環境とマルチGPU環境の両方に互換性のある,自動的で効率的なヘテロジニアストレーニングシステムであるAutoHeteを提案する。
論文 参考訳(メタデータ) (2025-02-27T14:46:22Z) - Federated Split Learning with Model Pruning and Gradient Quantization in Wireless Networks [7.439160287320074]
Federated split learning (FedSL)は、モデル分割によるエッジデバイスとサーバ間の協調トレーニングを実装している。
本稿では,リソース制約のあるエッジデバイスのトレーニング負担を軽減する軽量なFedSL方式を提案する。
提案手法の収束性能を定量化するために理論的解析を行う。
論文 参考訳(メタデータ) (2024-12-09T11:43:03Z) - Gradual Optimization Learning for Conformational Energy Minimization [69.36925478047682]
ニューラルネットワークによるエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)は、必要な追加データを大幅に削減する。
GOLFでトレーニングしたニューラルネットワークは,種々の薬物様分子のベンチマークにおいて,オラクルと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-11-05T11:48:08Z) - Aggregating Capacity in FL through Successive Layer Training for
Computationally-Constrained Devices [3.4530027457862]
フェデレートラーニング(FL)は通常、リソース制約されたエッジデバイス上で実行される。
FLトレーニングプロセスはそのような制約に合わせて調整されるべきである。
本研究では,FLモデルのパラメータをデバイス上で連続的に凍結・訓練する手法を提案する。
論文 参考訳(メタデータ) (2023-05-26T15:04:06Z) - MILO: Model-Agnostic Subset Selection Framework for Efficient Model
Training and Tuning [68.12870241637636]
モデル学習からサブセット選択を分離するモデルに依存しないサブセット選択フレームワークMILOを提案する。
実験結果から、MILOはモデルを3ドル(約3,300円)でトレーニングし、ハイパーパラメータを20ドル(約2,300円)でチューニングできます。
論文 参考訳(メタデータ) (2023-01-30T20:59:30Z) - Predicting Training Time Without Training [120.92623395389255]
我々は、事前訓練された深層ネットワークが損失関数の所定の値に収束する必要がある最適化ステップの数を予測する問題に取り組む。
我々は、微調整中の深部ネットワークのトレーニングダイナミクスが線形化モデルによってよく近似されているという事実を活用する。
トレーニングをする必要なく、特定の損失にモデルを微調整するのに要する時間を予測できます。
論文 参考訳(メタデータ) (2020-08-28T04:29:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。