論文の概要: Any-dimensional equivariant neural networks
- arxiv url: http://arxiv.org/abs/2306.06327v1
- Date: Sat, 10 Jun 2023 00:55:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 19:43:48.877356
- Title: Any-dimensional equivariant neural networks
- Title(参考訳): 任意の次元同変ニューラルネットワーク
- Authors: Eitan Levin and Mateo D\'iaz
- Abstract要約: 従来の教師付き学習は、関数を一定次元の入出力ペアの集合に適合させることで未知のマッピングを学習することを目的としている。
我々は、代数トポロジで新たに発見された現象である表現安定性を利用して、一定次元のデータでトレーニングできる同変ニューラルネットワークを定義する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional supervised learning aims to learn an unknown mapping by fitting a
function to a set of input-output pairs with a fixed dimension. The fitted
function is then defined on inputs of the same dimension. However, in many
settings, the unknown mapping takes inputs in any dimension; examples include
graph parameters defined on graphs of any size and physics quantities defined
on an arbitrary number of particles. We leverage a newly-discovered phenomenon
in algebraic topology, called representation stability, to define equivariant
neural networks that can be trained with data in a fixed dimension and then
extended to accept inputs in any dimension. Our approach is user-friendly,
requiring only the network architecture and the groups for equivariance, and
can be combined with any training procedure. We provide a simple open-source
implementation of our methods and offer preliminary numerical experiments.
- Abstract(参考訳): 従来の教師付き学習は、関数を固定次元の入出力ペアに適合させることで未知のマッピングを学ぶことを目的としている。
適合関数は、同じ次元の入力に対して定義される。
しかし、多くの設定において、未知のマッピングは任意の次元の入力を取る;例えば、任意の大きさのグラフ上で定義されるグラフパラメータや、任意の数の粒子で定義される物理量を含む。
我々は、代数トポロジで新たに発見された現象である表現安定性を利用して、任意の次元でデータでトレーニングし、任意の次元で入力を受け入れるよう拡張できる同変ニューラルネットワークを定義する。
このアプローチはユーザフレンドリーであり,ネットワークアーキテクチャとグループのみを等価に要求し,任意のトレーニング手順と組み合わせることが可能である。
本手法の簡単なオープンソース実装と予備的な数値実験を提供する。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Geometry-induced Implicit Regularization in Deep ReLU Neural Networks [0.0]
暗黙の正則化現象は、まだよく理解されていないが、最適化中に起こる。
パラメータの異なる出力集合の幾何について検討する。
バッチ関数次元は隠蔽層内の活性化パターンによってほぼ確実に決定されることを示す。
論文 参考訳(メタデータ) (2024-02-13T07:49:57Z) - Dimensionless machine learning: Imposing exact units equivariance [7.9926585627926166]
単位等価な機械学習のための2段階の学習手順を提供する。
まず、次元解析による古典的な結果を用いて、その入力の無次元バージョンを構築する。
そして、無次元空間で推論を行う。
論文 参考訳(メタデータ) (2022-04-02T15:46:20Z) - Side-effects of Learning from Low Dimensional Data Embedded in an
Euclidean Space [3.093890460224435]
データ多様体の必要次元におけるネットワークの深さとノイズに関連する潜在的な正則化効果について検討する。
また,騒音によるトレーニングの副作用も提示した。
論文 参考訳(メタデータ) (2022-03-01T16:55:51Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - NeuroMorph: Unsupervised Shape Interpolation and Correspondence in One
Go [109.88509362837475]
入力2つの3次元形状を考慮したニューラルネットワークアーキテクチャであるNeuroMorphを提案する。
NeuroMorphはそれらの間のスムーズかつポイントツーポイント対応を生成する。
異なる対象カテゴリの非等尺性ペアを含む、さまざまな入力形状に対してうまく機能する。
論文 参考訳(メタデータ) (2021-06-17T12:25:44Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z) - Learn to Predict Sets Using Feed-Forward Neural Networks [63.91494644881925]
本稿では、ディープフィードフォワードニューラルネットワークを用いた設定予測の課題に対処する。
未知の置換と基数を持つ集合を予測するための新しい手法を提案する。
関連視覚問題に対する集合定式化の有効性を実証する。
論文 参考訳(メタデータ) (2020-01-30T01:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。