論文の概要: SVarM: Linear Support Varifold Machines for Classification and Regression on Geometric Data
- arxiv url: http://arxiv.org/abs/2506.01189v1
- Date: Sun, 01 Jun 2025 21:55:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.980697
- Title: SVarM: Linear Support Varifold Machines for Classification and Regression on Geometric Data
- Title(参考訳): SVarM:幾何学的データの分類と回帰のための線形支援可変マシン
- Authors: Emmanuel Hartman, Nicolas Charon,
- Abstract要約: 本研究は, 形状の変数表現を測度として利用し, テスト関数との双対性を評価するためのSVarMを提案する。
トレーニング可能なテスト関数のニューラルネットワークに基づく表現を導入することにより,形状データセットの分類と回帰モデルを開発する。
- 参考スコア(独自算出の注目度): 4.212663349859165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite progress in the rapidly developing field of geometric deep learning, performing statistical analysis on geometric data--where each observation is a shape such as a curve, graph, or surface--remains challenging due to the non-Euclidean nature of shape spaces, which are defined as equivalence classes under invariance groups. Building machine learning frameworks that incorporate such invariances, notably to shape parametrization, is often crucial to ensure generalizability of the trained models to new observations. This work proposes SVarM to exploit varifold representations of shapes as measures and their duality with test functions $h:\mathbb{R}^n \times S^{n-1} \to \mathbb{R}$. This method provides a general framework akin to linear support vector machines but operating instead over the infinite-dimensional space of varifolds. We develop classification and regression models on shape datasets by introducing a neural network-based representation of the trainable test function $h$. This approach demonstrates strong performance and robustness across various shape graph and surface datasets, achieving results comparable to state-of-the-art methods while significantly reducing the number of trainable parameters.
- Abstract(参考訳): 幾何深層学習の急速な発展にもかかわらず、幾何データに関する統計学的分析を行い、各観測は曲線、グラフ、表面のような形状であり、非ユークリッド的な形状空間の性質により困難であり、不変群の下で同値類として定義される。
このような不変性、特にパラメトリゼーションを形作る機械学習フレームワークを構築することは、トレーニングされたモデルの新しい観察への一般化性を確保するためにしばしば重要である。
本研究では,形状の変数表現を測度として利用し,その双対性をテスト関数 $h:\mathbb{R}^n \times S^{n-1} \to \mathbb{R}$ を用いて提案する。
この方法は、線型支持ベクトルマシンに似た一般的なフレームワークを提供するが、代わりに変数の無限次元空間上で操作する。
トレーニング可能なテスト関数をニューラルネットワークで表現することで,形状データセットの分類と回帰モデルを構築した。
このアプローチは、様々な形状グラフや表面データセットにまたがる強力な性能と堅牢性を示し、最先端の手法に匹敵する結果を得ると同時に、トレーニング可能なパラメータの数を著しく削減する。
関連論文リスト
- Geometric Operator Learning with Optimal Transport [77.16909146519227]
複素測地上での偏微分方程式(PDE)に対する演算子学習に最適輸送(OT)を統合することを提案する。
表面に焦点を当てた3次元シミュレーションでは、OTベースのニューラルオペレーターが表面形状を2次元パラメータ化潜在空間に埋め込む。
ShapeNet-Car と DrivAerNet-Car を用いたレイノルズ平均化 Navier-Stokes 方程式 (RANS) を用いた実験により,提案手法は精度の向上と計算コストの削減を図った。
論文 参考訳(メタデータ) (2025-07-26T21:28:25Z) - Manifold Learning with Normalizing Flows: Towards Regularity, Expressivity and Iso-Riemannian Geometry [8.020732438595905]
この研究は、マルチモーダル設定で発生する歪みやモデリングエラーに対処することに焦点を当てている。
本稿では,合成データと実データの両方を用いた数値実験において,提案手法の相乗効果を示す。
論文 参考訳(メタデータ) (2025-05-12T21:44:42Z) - Geometry aware inference of steady state PDEs using Equivariant Neural Fields representations [0.0]
定常部分微分方程式を予測するエンコーダデコーダである enf2enf を導入する。
提案手法は、リアルタイム推論とゼロショット超解像をサポートし、低分解能メッシュの効率的なトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-04-24T08:30:32Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Graph Structure Inference with BAM: Introducing the Bilinear Attention
Mechanism [31.99564199048314]
本稿では,教師付きグラフ構造学習のためのニューラルネットワークモデルを提案する。
モデルは可変形状および結合された入力データで訓練される。
本手法は, 線形および多種多様な非線形依存関係に対して, 堅牢な一般化性を示す。
論文 参考訳(メタデータ) (2024-02-12T15:48:58Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Leveraging Equivariant Features for Absolute Pose Regression [9.30597356471664]
変換と回転の同変である畳み込みニューラルネットワークは,カメラの動きの表現を直接特徴空間に誘導することを示す。
次に、この幾何学的性質により、画像平面保存変換の全グループの下でトレーニングデータを暗黙的に増大させることができることを示す。
論文 参考訳(メタデータ) (2022-04-05T12:44:20Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Efficient Multidimensional Functional Data Analysis Using Marginal
Product Basis Systems [2.4554686192257424]
多次元関数データのサンプルから連続表現を学習するためのフレームワークを提案する。
本研究では, テンソル分解により, 得られた推定問題を効率的に解けることを示す。
我々は、ニューロイメージングにおける真のデータ応用で締めくくっている。
論文 参考訳(メタデータ) (2021-07-30T16:02:15Z) - Hermitian Symmetric Spaces for Graph Embeddings [0.0]
C 上の対称行列空間におけるグラフの連続表現を学ぶ。
これらの空間は双曲部分空間とユークリッド部分空間を同時に認めるリッチな幾何学を提供する。
提案するモデルは, apriori のグラフ特徴を見積もることなく, まったく異なる配置に自動的に適応することができる。
論文 参考訳(メタデータ) (2021-05-11T18:14:52Z) - A Differential Geometry Perspective on Orthogonal Recurrent Models [56.09491978954866]
我々は微分幾何学からのツールと洞察を用いて、直交rnnの新しい視点を提供する。
直交RNNは、発散自由ベクトル場の空間における最適化と見なすことができる。
この観測に動機づけられて、ベクトル場全体の空間にまたがる新しいリカレントモデルの研究を行う。
論文 参考訳(メタデータ) (2021-02-18T19:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。