論文の概要: Neural approximation of Wasserstein distance via a universal
architecture for symmetric and factorwise group invariant functions
- arxiv url: http://arxiv.org/abs/2308.00273v2
- Date: Fri, 17 Nov 2023 08:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 18:35:58.514987
- Title: Neural approximation of Wasserstein distance via a universal
architecture for symmetric and factorwise group invariant functions
- Title(参考訳): 対称および因子群不変関数に対する普遍的アーキテクチャによるワッサーシュタイン距離のニューラル近似
- Authors: Samantha Chen, Yusu Wang
- Abstract要約: まず,SFGI関数を近似する汎用ニューラルネットワークアーキテクチャを提案する。
本論文の主な貢献は、この一般的なニューラルネットワークとスケッチのアイデアを組み合わせて、特定かつ効率的なニューラルネットワークを開発することである。
我々の研究は、対称関数の普遍近似を伴う幾何学的問題に対するスケッチのアイデアの興味深い統合を提供する。
- 参考スコア(独自算出の注目度): 6.994580267603235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning distance functions between complex objects, such as the Wasserstein
distance to compare point sets, is a common goal in machine learning
applications. However, functions on such complex objects (e.g., point sets and
graphs) are often required to be invariant to a wide variety of group actions
e.g. permutation or rigid transformation. Therefore, continuous and symmetric
product functions (such as distance functions) on such complex objects must
also be invariant to the product of such group actions. We call these functions
symmetric and factor-wise group invariant (or SFGI functions in short). In this
paper, we first present a general neural network architecture for approximating
SFGI functions. The main contribution of this paper combines this general
neural network with a sketching idea to develop a specific and efficient neural
network which can approximate the $p$-th Wasserstein distance between point
sets. Very importantly, the required model complexity is independent of the
sizes of input point sets. On the theoretical front, to the best of our
knowledge, this is the first result showing that there exists a neural network
with the capacity to approximate Wasserstein distance with bounded model
complexity. Our work provides an interesting integration of sketching ideas for
geometric problems with universal approximation of symmetric functions. On the
empirical front, we present a range of results showing that our newly proposed
neural network architecture performs comparatively or better than other models
(including a SOTA Siamese Autoencoder based approach). In particular, our
neural network generalizes significantly better and trains much faster than the
SOTA Siamese AE. Finally, this line of investigation could be useful in
exploring effective neural network design for solving a broad range of
geometric optimization problems (e.g., $k$-means in a metric space).
- Abstract(参考訳): 複雑なオブジェクト間の距離関数(wasserstein距離など)を学習することは、機械学習アプリケーションにおいて共通の目標である。
しかし、そのような複素対象(例えば点集合やグラフ)上の函数は、しばしば、置換や剛変換のような様々な群作用に不変であることが求められる。
したがって、そのような複素対象上の連続かつ対称な積函数(例えば距離函数)もそのような群作用の積に不変でなければならない。
これらの関数を対称的および因子的群不変量(あるいは略して SFGI 関数)と呼ぶ。
本稿ではまず,SFGI関数を近似する汎用ニューラルネットワークアーキテクチャを提案する。
本論文の主な貢献は、この一般的なニューラルネットワークとスケッチのアイデアを組み合わせることで、ポイントセット間の$p$-th wasserstein距離を近似できる特定かつ効率的なニューラルネットワークを開発することである。
非常に重要なことに、必要となるモデルの複雑さは入力点集合のサイズに依存しない。
理論的には、我々の知る限りでは、これはモデル複雑性の有界なワッサースタイン距離を近似する能力を持つニューラルネットワークが存在することを示す最初の結果である。
本研究は対称関数の普遍近似を用いた幾何学問題に対するスケッチアイデアの興味深い統合を提供する。
実験的な面から、我々は新たに提案したニューラルネットワークアーキテクチャが他のモデル(SOTA Siamese Autoencoderベースのアプローチを含む)よりも比較的高い性能を示すことを示す。
特に、私たちのニューラルネットワークは、SOTA Siamese AEよりもはるかに高速で一般化し、訓練を行ないます。
最後に、この一連の調査は、幅広い幾何学的最適化問題(例えば、計量空間における$k$-means)を解決する効果的なニューラルネットワーク設計の探求に有用である。
関連論文リスト
- Towards Explaining Hypercomplex Neural Networks [6.543091030789653]
ハイパーコンプレックスニューラルネットワークは、ディープラーニングコミュニティへの関心が高まっている。
本稿では,本質的に解釈可能なPHNNと4元ネットワークを提案する。
我々は、このユニークなニューラルネットワークのブランチがどのように機能するかを洞察する。
論文 参考訳(メタデータ) (2024-03-26T17:58:07Z) - Universal Neural Functionals [67.80283995795985]
多くの現代の機械学習タスクでは、ウェイトスペース機能を処理することが難しい問題である。
最近の研究は、単純なフィードフォワードネットワークの置換対称性に同値な有望な重み空間モデルを開発した。
本研究は,任意の重み空間に対する置換同変モデルを自動的に構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T20:12:27Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Efficient Parametric Approximations of Neural Network Function Space
Distance [6.117371161379209]
モデルパラメータとトレーニングデータの重要な特性をコンパクトに要約して、データセット全体を保存または/または反復することなく後で使用できるようにすることが、しばしば有用である。
我々は,FSD(Function Space Distance)をトレーニングセット上で推定することを検討する。
本稿では、線形化活性化TRick (LAFTR) を提案し、ReLUニューラルネットワークに対するFSDの効率的な近似を導出する。
論文 参考訳(メタデータ) (2023-02-07T15:09:23Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。