論文の概要: SVarM: Linear Support Varifold Machines for Classification and Regression on Geometric Data
- arxiv url: http://arxiv.org/abs/2506.01189v1
- Date: Sun, 01 Jun 2025 21:55:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.980697
- Title: SVarM: Linear Support Varifold Machines for Classification and Regression on Geometric Data
- Title(参考訳): SVarM:幾何学的データの分類と回帰のための線形支援可変マシン
- Authors: Emmanuel Hartman, Nicolas Charon,
- Abstract要約: 本研究は, 形状の変数表現を測度として利用し, テスト関数との双対性を評価するためのSVarMを提案する。
トレーニング可能なテスト関数のニューラルネットワークに基づく表現を導入することにより,形状データセットの分類と回帰モデルを開発する。
- 参考スコア(独自算出の注目度): 4.212663349859165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite progress in the rapidly developing field of geometric deep learning, performing statistical analysis on geometric data--where each observation is a shape such as a curve, graph, or surface--remains challenging due to the non-Euclidean nature of shape spaces, which are defined as equivalence classes under invariance groups. Building machine learning frameworks that incorporate such invariances, notably to shape parametrization, is often crucial to ensure generalizability of the trained models to new observations. This work proposes SVarM to exploit varifold representations of shapes as measures and their duality with test functions $h:\mathbb{R}^n \times S^{n-1} \to \mathbb{R}$. This method provides a general framework akin to linear support vector machines but operating instead over the infinite-dimensional space of varifolds. We develop classification and regression models on shape datasets by introducing a neural network-based representation of the trainable test function $h$. This approach demonstrates strong performance and robustness across various shape graph and surface datasets, achieving results comparable to state-of-the-art methods while significantly reducing the number of trainable parameters.
- Abstract(参考訳): 幾何深層学習の急速な発展にもかかわらず、幾何データに関する統計学的分析を行い、各観測は曲線、グラフ、表面のような形状であり、非ユークリッド的な形状空間の性質により困難であり、不変群の下で同値類として定義される。
このような不変性、特にパラメトリゼーションを形作る機械学習フレームワークを構築することは、トレーニングされたモデルの新しい観察への一般化性を確保するためにしばしば重要である。
本研究では,形状の変数表現を測度として利用し,その双対性をテスト関数 $h:\mathbb{R}^n \times S^{n-1} \to \mathbb{R}$ を用いて提案する。
この方法は、線型支持ベクトルマシンに似た一般的なフレームワークを提供するが、代わりに変数の無限次元空間上で操作する。
トレーニング可能なテスト関数をニューラルネットワークで表現することで,形状データセットの分類と回帰モデルを構築した。
このアプローチは、様々な形状グラフや表面データセットにまたがる強力な性能と堅牢性を示し、最先端の手法に匹敵する結果を得ると同時に、トレーニング可能なパラメータの数を著しく削減する。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Graph Structure Inference with BAM: Introducing the Bilinear Attention
Mechanism [31.99564199048314]
本稿では,教師付きグラフ構造学習のためのニューラルネットワークモデルを提案する。
モデルは可変形状および結合された入力データで訓練される。
本手法は, 線形および多種多様な非線形依存関係に対して, 堅牢な一般化性を示す。
論文 参考訳(メタデータ) (2024-02-12T15:48:58Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Leveraging Equivariant Features for Absolute Pose Regression [9.30597356471664]
変換と回転の同変である畳み込みニューラルネットワークは,カメラの動きの表現を直接特徴空間に誘導することを示す。
次に、この幾何学的性質により、画像平面保存変換の全グループの下でトレーニングデータを暗黙的に増大させることができることを示す。
論文 参考訳(メタデータ) (2022-04-05T12:44:20Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Efficient Multidimensional Functional Data Analysis Using Marginal
Product Basis Systems [2.4554686192257424]
多次元関数データのサンプルから連続表現を学習するためのフレームワークを提案する。
本研究では, テンソル分解により, 得られた推定問題を効率的に解けることを示す。
我々は、ニューロイメージングにおける真のデータ応用で締めくくっている。
論文 参考訳(メタデータ) (2021-07-30T16:02:15Z) - Hermitian Symmetric Spaces for Graph Embeddings [0.0]
C 上の対称行列空間におけるグラフの連続表現を学ぶ。
これらの空間は双曲部分空間とユークリッド部分空間を同時に認めるリッチな幾何学を提供する。
提案するモデルは, apriori のグラフ特徴を見積もることなく, まったく異なる配置に自動的に適応することができる。
論文 参考訳(メタデータ) (2021-05-11T18:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。