論文の概要: The passive symmetries of machine learning
- arxiv url: http://arxiv.org/abs/2301.13724v1
- Date: Tue, 31 Jan 2023 16:01:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 16:02:25.823161
- Title: The passive symmetries of machine learning
- Title(参考訳): 機械学習の受動的対称性
- Authors: Soledad Villar (JHU), David W. Hogg (NYU, MPIA, Flatiron), Weichi Yao
(NYU), George A. Kevrekidis (JHU, LANL), Bernhard Sch\"olkopf (MPI-IS)
- Abstract要約: 本稿では,機械学習における受動的対称性の意味を理解することを目的とする。
本稿では、因果モデリングとの関係について論じ、学習問題の目的がサンプルから一般化することである場合、受動的対称性の実装は特に価値があると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Any representation of data involves arbitrary investigator choices. Because
those choices are external to the data-generating process, each choice leads to
an exact symmetry, corresponding to the group of transformations that takes one
possible representation to another. These are the passive symmetries; they
include coordinate freedom, gauge symmetry and units covariance, all of which
have led to important results in physics. Our goal is to understand the
implications of passive symmetries for machine learning: Which passive
symmetries play a role (e.g., permutation symmetry in graph neural networks)?
What are dos and don'ts in machine learning practice? We assay conditions under
which passive symmetries can be implemented as group equivariances. We also
discuss links to causal modeling, and argue that the implementation of passive
symmetries is particularly valuable when the goal of the learning problem is to
generalize out of sample. While this paper is purely conceptual, we believe
that it can have a significant impact on helping machine learning make the
transition that took place for modern physics in the first half of the
Twentieth century.
- Abstract(参考訳): 任意のデータ表現は任意の調査員の選択を伴う。
これらの選択はデータ生成過程の外部にあるため、それぞれの選択は1つの可能な表現を別の表現に取る変換の群に対応する正確な対称性をもたらす。
これらはパッシブ対称性であり、座標自由度、ゲージ対称性、単位共分散を含み、これらは全て物理学において重要な結果をもたらした。
私たちのゴールは、機械学習における受動的対称性の意味を理解することです: どの受動的対称性が役割を果たすか(例えば、グラフニューラルネットワークにおける置換対称性)?
機械学習の実践でやるべきことは何か?
我々は、パッシブ対称性を群同値として実装できる条件を確かめる。
また,因果モデリングとの関連についても議論し,学習問題の目的がサンプルから一般化することである場合には,受動的対称性の実装が特に有用であると主張する。
この論文は純粋に概念的だが、20世紀前半の現代物理学における遷移を機械学習が支援する上で、大きな影響を与える可能性があると考えている。
関連論文リスト
- Learning Infinitesimal Generators of Continuous Symmetries from Data [15.42275880523356]
1-パラメータ群で定義された変換に基づく新しい対称性学習アルゴリズムを提案する。
この手法は最小限の帰納バイアスに基づいて構築され、リー群に根付いた一般的な対称性だけでなく、非線形発生器由来の対称性にまで拡張される。
論文 参考訳(メタデータ) (2024-10-29T08:28:23Z) - Noether's razor: Learning Conserved Quantities [16.81984465529089]
我々は対称性を学習可能な保存量としてパラメータ化する。
次に、保存された量と関連する対称性を直接列車データから学ぶことを許す。
この手法は正しい保存量と U($n$) および SE($n$) 対称性群を正しく同定する。
論文 参考訳(メタデータ) (2024-10-10T16:29:49Z) - A Unified Framework to Enforce, Discover, and Promote Symmetry in Machine Learning [5.1105250336911405]
機械学習モデルに対称性を組み込むための統一理論および方法論の枠組みを提供する。
対称性の強制と発見は、リー微分の双線型構造に対して双対である線形代数的タスクであることを示す。
本稿では、リー微分と核ノルム緩和に基づく凸正規化関数のクラスを導入することで対称性を促進する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-01T01:19:54Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Symmetry Induces Structure and Constraint of Learning [0.0]
機械学習モデルの学習行動に影響を及ぼすか、決定しないかにかかわらず、損失関数対称性の重要性を明らかにする。
ディープラーニングにおけるミラー対称性の一般的な例としては、再スケーリング、回転、置換対称性がある。
ニューラルネットワークにおける可塑性の喪失や様々な崩壊現象などの興味深い現象を理論的枠組みで説明できることを示す。
論文 参考訳(メタデータ) (2023-09-29T02:21:31Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Quantum Mechanics as a Theory of Incompatible Symmetries [77.34726150561087]
古典確率論が非互換変数を持つ任意の系を含むように拡張可能であることを示す。
非互換な変数を持つ確率的システム(古典的あるいは量子的)が不確実性だけでなく、その確率パターンにも干渉することを示す。
論文 参考訳(メタデータ) (2022-05-31T16:04:59Z) - Dimensionless machine learning: Imposing exact units equivariance [7.9926585627926166]
単位等価な機械学習のための2段階の学習手順を提供する。
まず、次元解析による古典的な結果を用いて、その入力の無次元バージョンを構築する。
そして、無次元空間で推論を行う。
論文 参考訳(メタデータ) (2022-04-02T15:46:20Z) - On the Importance of Asymmetry for Siamese Representation Learning [53.86929387179092]
シームズネットワークは、2つの並列エンコーダと概念的に対称である。
ネットワーク内の2つのエンコーダを明確に区別することで,非対称性の重要性について検討する。
非対称設計による改善は、より長いトレーニングスケジュール、複数の他のフレームワーク、より新しいバックボーンに一般化されている。
論文 参考訳(メタデータ) (2022-04-01T17:57:24Z) - Symmetry Group Equivariant Architectures for Physics [52.784926970374556]
機械学習の分野では、対称性に対する認識が目覚ましいパフォーマンスのブレークスルーを引き起こしている。
物理学のコミュニティと、より広い機械学習のコミュニティの両方に、理解すべきことがたくさんある、と私たちは主張する。
論文 参考訳(メタデータ) (2022-03-11T18:27:04Z) - Meta-Learning Symmetries by Reparameterization [63.85144439337671]
データから対応するパラメータ共有パターンを学習し、等価性をネットワークに学習し、符号化する手法を提案する。
本実験は,画像処理タスクで使用される共通変換に等価性をエンコードして自動的に学習できることを示唆する。
論文 参考訳(メタデータ) (2020-07-06T17:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。