論文の概要: Group Averaging for Physics Applications: Accuracy Improvements at Zero Training Cost
- arxiv url: http://arxiv.org/abs/2511.09573v1
- Date: Fri, 14 Nov 2025 01:00:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.335918
- Title: Group Averaging for Physics Applications: Accuracy Improvements at Zero Training Cost
- Title(参考訳): 物理学応用のためのグループ平均化:ゼロトレーニングコストでの精度向上
- Authors: Valentino F. Foit, David W. Hogg, Soledad Villar,
- Abstract要約: 等変法は採用されないことが多いが、それはおそらく訓練が困難であるとみなされるか、対称性が学習されることが予想されるためである。
グループ平均化はこれらの状況において利用可能なテクニックである。
これはテスト時に起こり、任意の訓練されたモデルは、その群のサイズに比例する(しばしば小さい)コストで、正確に同値なモデルを作ることができる。
- 参考スコア(独自算出の注目度): 11.026561518386025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many machine learning tasks in the natural sciences are precisely equivariant to particular symmetries. Nonetheless, equivariant methods are often not employed, perhaps because training is perceived to be challenging, or the symmetry is expected to be learned, or equivariant implementations are seen as hard to build. Group averaging is an available technique for these situations. It happens at test time; it can make any trained model precisely equivariant at a (often small) cost proportional to the size of the group; it places no requirements on model structure or training. It is known that, under mild conditions, the group-averaged model will have a provably better prediction accuracy than the original model. Here we show that an inexpensive group averaging can improve accuracy in practice. We take well-established benchmark machine learning models of differential equations in which certain symmetries ought to be obeyed. At evaluation time, we average the models over a small group of symmetries. Our experiments show that this procedure always decreases the average evaluation loss, with improvements of up to 37\% in terms of the VRMSE. The averaging produces visually better predictions for continuous dynamics. This short paper shows that, under certain common circumstances, there are no disadvantages to imposing exact symmetries; the ML4PS community should consider group averaging as a cheap and simple way to improve model accuracy.
- Abstract(参考訳): 自然科学における多くの機械学習タスクは、特定の対称性と正確に同値である。
それでも、等変法は採用されないことが多いが、おそらくは訓練が困難であると見なされるか、対称性が学習されることが予想されるか、あるいは同変法の実装は構築が難しいと見なされるためである。
グループ平均化はこれらの状況において利用可能なテクニックである。
これはテスト時に起こり、任意の訓練されたモデルを(しばしば小さい)グループのサイズに比例したコストで正確に同値にすることができる。
穏やかな条件下では、グループ平均モデルは元のモデルよりも確実に予測精度が良いことが知られている。
ここでは,安価なグループ平均化により,実際に精度が向上することを示す。
特定の対称性に従うべき微分方程式の機械学習モデルを確立した。
評価時には、少数の対称性群に対してモデルの平均化を行う。
以上の結果から,VRMSEでは最大37 %の改善が得られた。
平均化は、連続力学の視覚的により良い予測をもたらす。
ML4PSコミュニティは、グループ平均化をモデル精度を改善するための安価で簡単な方法として検討すべきである。
関連論文リスト
- Approximate Equivariance in Reinforcement Learning [35.04248486334824]
我々は、強化学習におけるほぼ同変のアルゴリズムを開発した。
その結果, ほぼ同変ネットワークは, 正確な対称性が存在する場合に, 正確に同変ネットワークと同等に動作することがわかった。
論文 参考訳(メタデータ) (2024-11-06T19:44:46Z) - A Hitchhiker's Guide to Scaling Law Estimation [56.06982415792523]
スケーリング法則は、より少ないパラメータやより少ないトレーニングセットで訓練が容易なモデルから外挿することで、ターゲットとなる機械学習モデルの損失を予測する。
我々は1000以上のスケーリング法則を推定し、新しいモデルファミリーにおけるスケーリング法則を推定するためのベストプラクティスを導出する。
論文 参考訳(メタデータ) (2024-10-15T17:59:10Z) - Measuring training variability from stochastic optimization using robust nonparametric testing [5.519968037738177]
本稿では,モデル類似度を測定するために,ロバストな仮説テストフレームワークと,新たな要約統計量である$alpha$-trimmingレベルを提案する。
仮説を$alpha$-trimmingレベルで直接適用することは、null仮説の下で分布を正確に記述できないため、難しい。
モデル変数の測定に$alpha$-trimmingレベルを使用する方法を示し、パフォーマンス指標よりも表現力が高いことを実験的に実証する。
論文 参考訳(メタデータ) (2024-06-12T15:08:15Z) - Is Pre-training Truly Better Than Meta-Learning? [54.175402455055995]
定型事前学習(PT)モデルと評価中の最終層の微調整は、標準的なメタ学習アルゴリズムよりも優れていると考えられている。
我々はこれらの主張を再評価し、多種多様なデータセットを詳細に検証した。
論文 参考訳(メタデータ) (2023-06-24T02:26:45Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Mismatched No More: Joint Model-Policy Optimization for Model-Based RL [172.37829823752364]
本稿では,モデルとポリシーを共同でトレーニングする単一目的について提案する。
我々の目標は、期待されるリターンのグローバルな低い境界であり、この境界は特定の仮定の下で厳密になる。
結果のアルゴリズム(MnM)は概念的にはGANと似ている。
論文 参考訳(メタデータ) (2021-10-06T13:43:27Z) - A moment-matching metric for latent variable generative models [0.0]
グッドハートの法則の範囲では、計量が対象となるとき、それは良い計量になるのをやめる。
モーメントに依存するモデル比較や正規化のための新しい指標を提案する。
潜時変動モデルを評価する際に, 適応分布からサンプルを抽出することが一般的である。
論文 参考訳(メタデータ) (2021-10-04T17:51:08Z) - Detangling robustness in high dimensions: composite versus
model-averaged estimation [11.658462692891355]
ロバスト法は、実際にはユビキタスであるが、正規化推定や高次元の文脈ではまだ完全には理解されていない。
本稿では,これらの設定におけるロバスト性をさらに研究し,予測に焦点を当てたツールボックスを提供する。
論文 参考訳(メタデータ) (2020-06-12T20:40:15Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。