論文の概要: A Tutorial on Dimensionless Learning: Geometric Interpretation and the Effect of Noise
- arxiv url: http://arxiv.org/abs/2512.15760v1
- Date: Fri, 12 Dec 2025 06:56:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.673562
- Title: A Tutorial on Dimensionless Learning: Geometric Interpretation and the Effect of Noise
- Title(参考訳): 無次元学習に関するチュートリアル:幾何学的解釈と雑音の影響
- Authors: Zhengtao Jake Gan, Xiaoyu Xie,
- Abstract要約: 次元のない学習は、次元のない数を発見し、実験的な測定から法則をスケーリングするための、データ駆動のフレームワークである。
本チュートリアルでは,実験データをコンパクトな物理法則に変換する方法について説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dimensionless learning is a data-driven framework for discovering dimensionless numbers and scaling laws from experimental measurements. This tutorial introduces the method, explaining how it transforms experimental data into compact physical laws that reveal compact dimensional invariance between variables. The approach combines classical dimensional analysis with modern machine learning techniques. Starting from measurements of physical quantities, the method identifies the fundamental ways to combine variables into dimensionless groups, then uses neural networks to discover which combinations best predict the experimental output. A key innovation is a regularization technique that encourages the learned coefficients to take simple, interpretable values like integers or half-integers, making the discovered laws both accurate and physically meaningful. We systematically investigate how measurement noise and discrete sampling affect the discovery process, demonstrating that the regularization approach provides robustness to experimental uncertainties. The method successfully handles cases with single or multiple dimensionless numbers, revealing how different but equivalent representations can capture the same underlying physics. Despite recent progress, key challenges remain, including managing the computational cost of identifying multiple dimensionless groups, understanding the influence of data characteristics, automating the selection of relevant input variables, and developing user-friendly tools for experimentalists. This tutorial serves as both an educational resource and a practical guide for researchers seeking to apply dimensionless learning to their experimental data.
- Abstract(参考訳): 次元のない学習は、次元のない数を発見し、実験的な測定から法則をスケーリングするための、データ駆動のフレームワークである。
このチュートリアルでは、実験データを変数間のコンパクトな次元不変性を示すコンパクトな物理法則に変換する方法について説明する。
この手法は古典的な次元解析と現代の機械学習技術を組み合わせたものである。
物理量の測定から始めて、変数を無次元のグループに結合する基本的な方法を特定し、次にニューラルネットワークを用いて、どの組み合わせが実験的な出力を最もよく予測するかを探索する。
鍵となる革新は、学習された係数が整数や半整数のような単純で解釈可能な値を取ることを奨励する正規化技術であり、発見された法則は正確かつ物理的に有意義である。
本研究では, 測定ノイズと離散サンプリングが発見過程にどう影響するかを系統的に検討し, 正則化手法が実験的不確実性に堅牢性をもたらすことを示した。
この方法では、単一または複数次元の無数のケースをうまく処理し、同じ基礎となる物理をいかに異なるが等価な表現が捉えるかを明らかにする。
近年の進歩にもかかわらず、複数の次元を持たないグループを識別する計算コストの管理、データ特性の影響の理解、関連する入力変数の選択の自動化、実験者向けのユーザフレンドリーなツールの開発など、重要な課題が残っている。
このチュートリアルは、実験データに無次元学習を適用しようとする研究者のための教育資源および実践的ガイドとして機能する。
関連論文リスト
- Identification and Debiased Learning of Causal Effects with General Instrumental Variables [5.00731378650601]
マルチカテゴリまたは連続的な機器変数を用いた識別と学習のための一般的な非パラメトリックフレームワークを開発する。
偏りのある機械学習を用いて、一貫性のある、効率的で正常な推定器を導出する。
本研究では,シミュレーション研究を取り入れ,職種訓練パートナーシップ法プログラムから得られた実データを分析することで,提案手法を実証する。
論文 参考訳(メタデータ) (2025-10-23T10:10:11Z) - Machine learning enabled experimental design and parameter estimation
for ultrafast spin dynamics [54.172707311728885]
機械学習とベイズ最適実験設計(BOED)を組み合わせた方法論を提案する。
本手法は,大規模スピンダイナミクスシミュレーションのためのニューラルネットワークモデルを用いて,BOEDの正確な分布と実用計算を行う。
数値ベンチマークでは,XPFS実験の誘導,モデルパラメータの予測,実験時間内でのより情報的な測定を行う上で,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-03T06:19:20Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - A Data-Driven Method for Automated Data Superposition with Applications
in Soft Matter Science [0.0]
我々は任意の座標変換で実験データを重畳するデータ駆動非パラメトリック法を開発した。
本手法は, 材料分類, 設計, 発見などの応用を通知する, 解釈可能なデータ駆動モデルを生成する。
論文 参考訳(メタデータ) (2022-04-20T14:58:04Z) - Learning new physics efficiently with nonparametric methods [11.970219534238444]
モデルに依存しない新しい物理探索のための機械学習手法を提案する。
対応するアルゴリズムは、最近のカーネルメソッドの大規模実装によって実現されている。
トレーニング時間や計算資源の観点から、ニューラルネットワークの実装と比較して、我々のアプローチは劇的なアドバンテージがあることが示される。
論文 参考訳(メタデータ) (2022-04-05T16:17:59Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - Nonparametric Estimation of Heterogeneous Treatment Effects: From Theory
to Learning Algorithms [91.3755431537592]
プラグイン推定と擬似出力回帰に依存する4つの幅広いメタ学習戦略を解析する。
この理論的推論を用いて、アルゴリズム設計の原則を導出し、分析を実践に翻訳する方法について強調する。
論文 参考訳(メタデータ) (2021-01-26T17:11:40Z) - Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping [103.71992720794421]
グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T19:08:24Z) - On the Robustness of Active Learning [0.7340017786387767]
Active Learningは、機械学習アルゴリズムをトレーニングする上で最も有用なサンプルを特定する方法に関するものだ。
十分な注意とドメイン知識を持っていないことがよくあります。
そこで本研究では,Simpson の多様性指標に基づく新たな "Sum of Squared Logits" 手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。