論文の概要: PoissonNet: A Local-Global Approach for Learning on Surfaces
- arxiv url: http://arxiv.org/abs/2510.14146v1
- Date: Wed, 15 Oct 2025 22:25:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.645239
- Title: PoissonNet: A Local-Global Approach for Learning on Surfaces
- Title(参考訳): PoissonNet: 表面学習のためのローカル-グローバルアプローチ
- Authors: Arman Maesumi, Tanish Makadia, Thibault Groueix, Vladimir G. Kim, Daniel Ritchie, Noam Aigerman,
- Abstract要約: メッシュ上での学習のための新しいニューラルネットワークであるPoissonNetを紹介する。
私たちの構築は効率的で、計算オーバーヘッドは同等のメソッドよりもはるかに少なくなります。
中心的な応用として、変形を学習する能力を示し、表面で学習する最先端のアーキテクチャを著しく上回っている。
- 参考スコア(独自算出の注目度): 31.598472309890116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many network architectures exist for learning on meshes, yet their constructions entail delicate trade-offs between difficulty learning high-frequency features, insufficient receptive field, sensitivity to discretization, and inefficient computational overhead. Drawing from classic local-global approaches in mesh processing, we introduce PoissonNet, a novel neural architecture that overcomes all of these deficiencies by formulating a local-global learning scheme, which uses Poisson's equation as the primary mechanism for feature propagation. Our core network block is simple; we apply learned local feature transformations in the gradient domain of the mesh, then solve a Poisson system to propagate scalar feature updates across the surface globally. Our local-global learning framework preserves the features's full frequency spectrum and provides a truly global receptive field, while remaining agnostic to mesh triangulation. Our construction is efficient, requiring far less compute overhead than comparable methods, which enables scalability -- both in the size of our datasets, and the size of individual training samples. These qualities are validated on various experiments where, compared to previous intrinsic architectures, we attain state-of-the-art performance on semantic segmentation and parameterizing highly-detailed animated surfaces. Finally, as a central application of PoissonNet, we show its ability to learn deformations, significantly outperforming state-of-the-art architectures that learn on surfaces.
- Abstract(参考訳): メッシュ上での学習には多くのネットワークアーキテクチャが存在するが、その構成は高周波の特徴の学習の難しさ、受容力の不足、離散化への感受性、非効率な計算オーバーヘッドの間の微妙なトレードオフを伴っている。
メッシュ処理における古典的なローカル・グローバルアプローチを参考に,PoissonNetを導入する。Poissonの方程式を特徴伝達の主要なメカニズムとして用いたローカル・グローバル・ラーニング・スキームを定式化することにより,これらの欠陥をすべて克服するニューラル・アーキテクチャだ。
メッシュの勾配領域に学習した局所的特徴変換を適用し、Poissonシステムを解くことで、スカラーな特徴更新を世界中に広める。
我々のローカル・グローバル・ラーニング・フレームワークは、特徴の完全な周波数スペクトルを保存し、真のグローバルな受容場を提供する一方で、メッシュ三角測量に非依存なままである。
私たちの構築は効率的で、同等のメソッドよりも計算オーバーヘッドをはるかに少なくし、データセットのサイズと個々のトレーニングサンプルのサイズの両方でスケーラビリティを可能にします。
これらの特性は,従来の内在的アーキテクチャと比較して,セマンティックセグメンテーションの最先端性能と,高精度なアニメーション表面のパラメータ化が可能な様々な実験で検証されている。
最後に、PoissonNetの中心的な応用として、変形を学習する能力を示し、表面で学習する最先端アーキテクチャを著しく上回っている。
関連論文リスト
- Global Convergence and Rich Feature Learning in $L$-Layer Infinite-Width Neural Networks under $μ$P Parametrization [66.03821840425539]
本稿では, テンソル勾配プログラム(SGD)フレームワークを用いた$L$層ニューラルネットワークのトレーニング力学について検討する。
SGDにより、これらのネットワークが初期値から大きく逸脱する線形独立な特徴を学習できることを示す。
このリッチな特徴空間は、関連するデータ情報をキャプチャし、トレーニングプロセスの収束点が世界最小であることを保証する。
論文 参考訳(メタデータ) (2025-03-12T17:33:13Z) - Learning-Based Finite Element Methods Modeling for Complex Mechanical Systems [1.6977525619006286]
複雑な力学系シミュレーションは多くの実世界の応用において重要である。
最近のCNNやGNNベースのシミュレーションモデルは、複雑なメカニックシミュレーションを効果的に表すのに苦戦している。
本稿では,新しい2レベルメッシュグラフネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-30T15:56:50Z) - Local Kernel Renormalization as a mechanism for feature learning in
overparametrized Convolutional Neural Networks [0.0]
実験的な証拠は、無限幅限界における完全連結ニューラルネットワークが最終的に有限幅限界よりも優れていることを示している。
畳み込み層を持つ最先端アーキテクチャは、有限幅構造において最適な性能を達成する。
有限幅FCネットワークの一般化性能は,ガウス事前選択に適した無限幅ネットワークで得られることを示す。
論文 参考訳(メタデータ) (2023-07-21T17:22:04Z) - Neural Collapse Inspired Federated Learning with Non-iid Data [31.576588815816095]
非独立かつ同一に分散された(非ID)特性は、ローカル更新に大きな違いをもたらし、中央サーバの性能に影響する。
神経崩壊の現象にインスパイアされた私たちは、各クライアントを最適なグローバル構造に最適化するよう強制する。
提案手法は, 異なるサイズのデータセット上での収束速度を高速化して, 性能を向上することができる。
論文 参考訳(メタデータ) (2023-03-27T05:29:53Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。