論文の概要: SharpNet: Enhancing MLPs to Represent Functions with Controlled Non-differentiability
- arxiv url: http://arxiv.org/abs/2601.19683v1
- Date: Tue, 27 Jan 2026 15:01:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.359877
- Title: SharpNet: Enhancing MLPs to Represent Functions with Controlled Non-differentiability
- Title(参考訳): SharpNet: 制御された非微分可能性を持つ関数表現へのMLPの強化
- Authors: Hanting Niu, Junkai Deng, Fei Hou, Wencheng Wang, Ying He,
- Abstract要約: 本稿では,ユーザ定義のシャープ機能を持つ関数を符号化可能なアーキテクチャであるSharpNetを提案する。
SharpNetは、機能位置に関して完全に差別化可能な、効率的な局所勾配を通じて評価される。
SharpNetを2次元問題と3次元CADモデル再構成で検証し,いくつかの最先端のベースラインと比較した。
- 参考スコア(独自算出の注目度): 13.769806961769211
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-layer perceptrons (MLPs) are a standard tool for learning and function approximation, but they inherently yield outputs that are globally smooth. As a result, they struggle to represent functions that are continuous yet deliberately non-differentiable (i.e., with prescribed $C^0$ sharp features) without relying on ad hoc post-processing. We present SharpNet, a modified MLP architecture capable of encoding functions with user-defined sharp features by enriching the network with an auxiliary feature function, which is defined as the solution to a Poisson equation with jump Neumann boundary conditions. It is evaluated via an efficient local integral that is fully differentiable with respect to the feature locations, enabling our method to jointly optimize both the feature locations and the MLP parameters to recover the target functions/models. The $C^0$-continuity of SharpNet is precisely controllable, ensuring $C^0$-continuity at the feature locations and smoothness elsewhere. We validate SharpNet on 2D problems and 3D CAD model reconstruction, and compare it against several state-of-the-art baselines. In both types of tasks, SharpNet accurately recovers sharp edges and corners while maintaining smooth behavior away from those features, whereas existing methods tend to smooth out gradient discontinuities. Both qualitative and quantitative evaluations highlight the benefits of our approach.
- Abstract(参考訳): 多層パーセプトロン(MLP)は学習と関数近似の標準ツールであるが、本質的にはグローバルにスムーズな出力を出力する。
その結果、アドホックな後処理に頼らずに連続的かつ故意に微分不可能な関数(例えば、所定の$C^0$のシャープな特徴を持つ)を表現するのに苦労する。
本稿では,ニューマン境界条件をジャンプするポアソン方程式の解として定義した補助的特徴関数でネットワークを強化することにより,ユーザ定義のシャープな特徴を持つ関数を符号化できる改良型MLPアーキテクチャであるSharpNetを提案する。
特徴位置に対して完全に微分可能な効率的な局所積分を用いて評価し,特徴位置とMLPパラメータの両方を協調的に最適化し,対象関数/モデルを復元する。
SharpNetの$C^0$-continuityは、正確に制御可能であり、機能位置と他の場所での滑らかさで$C^0$-continuityを保証する。
SharpNetを2次元問題と3次元CADモデル再構成で検証し,いくつかの最先端のベースラインと比較した。
どちらのタスクでも、SharpNetは鋭いエッジとコーナーを正確に回復し、それらの機能からスムーズな振る舞いを維持する一方、既存のメソッドはグラデーションの不連続をスムーズにする傾向にある。
質的かつ定量的な評価は、私たちのアプローチの利点を強調します。
関連論文リスト
- KAN or MLP? Point Cloud Shows the Way Forward [25.96969696071992]
我々は、クラウド分析タスクにKAN(Kolmogorov-Arnold Learning Networks)を適用したPointKANを提案する。
我々は、ModelNet40、ScanNN、ShapeNetPartなどのベンチマークデータセットにおいて、PointKANがPointMLPより優れていることを示す。
この研究は、3Dビジョンにおけるkansベースのアーキテクチャの可能性を強調し、ポイントクラウド理解における研究のための新たな道を開く。
論文 参考訳(メタデータ) (2025-04-18T09:52:22Z) - Universal Online Learning with Gradient Variations: A Multi-layer Online Ensemble Approach [57.92727189589498]
本稿では,2段階の適応性を持つオンライン凸最適化手法を提案する。
我々は$mathcalO(log V_T)$, $mathcalO(d log V_T)$, $hatmathcalO(sqrtV_T)$ regret bounds for strong convex, exp-concave and convex loss function。
論文 参考訳(メタデータ) (2023-07-17T09:55:35Z) - On Convergence of Incremental Gradient for Non-Convex Smooth Functions [63.51187646914962]
機械学習とネットワーク最適化では、ミスの数と優れたキャッシュを最小化するため、シャッフルSGDのようなアルゴリズムが人気である。
本稿では任意のデータ順序付けによる収束特性SGDアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2023-05-30T17:47:27Z) - Binarizing by Classification: Is soft function really necessary? [4.329951775163721]
本稿では,二項分類問題としてネットワークバイナライゼーションに取り組むことを提案する。
また、ポーズ推定モデルの軽量化手法としてバイナライゼーションを用いる。
提案手法により,最大60.6ドルのmAPを初めて達成できる。
論文 参考訳(メタデータ) (2022-05-16T02:47:41Z) - Multiway Non-rigid Point Cloud Registration via Learned Functional Map
Synchronization [105.14877281665011]
我々は、点雲上に定義された学習関数に関する地図を同期させることにより、複数の非剛体形状を登録する新しい方法であるSyNoRiMを提案する。
提案手法は,登録精度において最先端の性能を達成できることを実証する。
論文 参考訳(メタデータ) (2021-11-25T02:37:59Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。