論文の概要: Self-Supervised Learning by Curvature Alignment
- arxiv url: http://arxiv.org/abs/2511.17426v1
- Date: Fri, 21 Nov 2025 17:22:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.141144
- Title: Self-Supervised Learning by Curvature Alignment
- Title(参考訳): 曲率アライメントによる自己指導型学習
- Authors: Benyamin Ghojogh, M. Hadi Sepanj, Paul Fieguth,
- Abstract要約: CurvSSLは、曲率調整による自己教師付き学習フレームワークである。
曲率調整型自己教師型学習フレームワークであるCurvSSLを紹介する。
局所幾何学を明示的に形成することは、純粋な統計的SSL正規化器の単純かつ効果的な補完であることを示す。
- 参考スコア(独自算出の注目度): 0.15293427903448018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) has recently advanced through non-contrastive methods that couple an invariance term with variance, covariance, or redundancy-reduction penalties. While such objectives shape first- and second-order statistics of the representation, they largely ignore the local geometry of the underlying data manifold. In this paper, we introduce CurvSSL, a curvature-regularized self-supervised learning framework, and its RKHS extension, kernel CurvSSL. Our approach retains a standard two-view encoder-projector architecture with a Barlow Twins-style redundancy-reduction loss on projected features, but augments it with a curvature-based regularizer. Each embedding is treated as a vertex whose $k$ nearest neighbors define a discrete curvature score via cosine interactions on the unit hypersphere; in the kernel variant, curvature is computed from a normalized local Gram matrix in an RKHS. These scores are aligned and decorrelated across augmentations by a Barlow-style loss on a curvature-derived matrix, encouraging both view invariance and consistency of local manifold bending. Experiments on MNIST and CIFAR-10 datasets with a ResNet-18 backbone show that curvature-regularized SSL yields competitive or improved linear evaluation performance compared to Barlow Twins and VICReg. Our results indicate that explicitly shaping local geometry is a simple and effective complement to purely statistical SSL regularizers.
- Abstract(参考訳): 自己教師付き学習(SSL)は、近年、分散、共分散、冗長推論のペナルティを伴う不変項を結合する非コントラスト的手法によって進歩している。
このような目的は表現の1階と2階の統計を形作るが、それらは基礎となるデータ多様体の局所幾何学をほとんど無視する。
本稿では,曲率調整型自己教師型学習フレームワークであるCurvSSLと,そのRKHS拡張であるカーネルCurvSSLを紹介する。
提案手法では,Barlow Twins方式の冗長性推論損失を投影した標準的な2ビューエンコーダ・プロジェクタアーキテクチャを保ちながら,曲率ベース正規化器で拡張する。
それぞれの埋め込みは頂点として扱われ、近隣の$k$は単位超球面上のコサイン相互作用を通じて離散曲率スコアを定義し、カーネル変種では、RKHSの正規化局所文法行列から曲率を計算する。
これらのスコアは、曲率由来の行列上のバーロースタイルの損失によって拡張をまたいで整列し、非変性と局所多様体の曲げの整合性の両方を奨励する。
ResNet-18バックボーンを用いたMNISTとCIFAR-10データセットの実験により、曲率正規化SSLはBarlow TwinsやVICRegと比較して、競争力や改善された線形評価性能が得られることが示された。
以上の結果から,局所幾何を明示的に形成することは純粋に統計的にSSL正規化器を補完する単純かつ効果的な手法であることが示唆された。
関連論文リスト
- Curvature Learning for Generalization of Hyperbolic Neural Networks [51.888534247573894]
ハイパーボリックニューラルネットワーク(HNN)は,階層構造を持つ実世界のデータを表現する上で,顕著な有効性を示している。
不適切な曲率により、HNNは最適以下のパラメータに収束し、全体的な性能が低下する可能性がある。
本研究では,損失景観の平滑化を図り,HNNの一般化を向上するシャープネス対応曲率学習法を提案する。
論文 参考訳(メタデータ) (2025-08-24T07:14:30Z) - Aggregation on Learnable Manifolds for Asynchronous Federated Optimization [3.8208848658169763]
曲線学習としてアグリゲーションを取り入れた幾何学的枠組みを導入する。
そこで我々は,線形アグリゲーションを低次曲率成分に置き換えたAsyncBezierを提案する。
これらの利得は、他の方法がより高いローカルな計算予算に割り当てられた場合でも維持されることを示す。
論文 参考訳(メタデータ) (2025-03-18T16:36:59Z) - CurvGAD: Leveraging Curvature for Enhanced Graph Anomaly Detection [23.643189106137008]
本稿では、曲率に基づく幾何学的異常の概念を導入する混合曲率グラフオートエンコーダであるCurvGADを提案する。
CurvGADは2つの並列パイプラインを導入し、異常解釈性を向上した。
10以上の実世界のデータセットの実験では、最先端のGADメソッドよりも最大6.5%改善されている。
論文 参考訳(メタデータ) (2025-02-12T17:49:46Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Machine learning algorithms for three-dimensional mean-curvature
computation in the level-set method [0.0]
レベルセット法のためのデータ駆動平均曲率解法を提案する。
提案方式は, 現在の粒子界面再構成よりも高精度な平均曲率推定を行うことができる。
論文 参考訳(メタデータ) (2022-08-18T20:19:22Z) - Rethinking the Zigzag Flattening for Image Reading [48.976491898131265]
我々はHilbert fractal flattening (HF) をコンピュータビジョンにおけるシーケンスオーダの別の方法として検討する。
HFは空間的局所性を維持する上で他の曲線よりも優れていることが証明されている。
ほとんどのディープニューラルネットワーク(DNN)に簡単に接続できる。
論文 参考訳(メタデータ) (2022-02-21T13:53:04Z) - Error-Correcting Neural Networks for Two-Dimensional Curvature
Computation in the Level-Set Method [0.0]
本稿では,2次元曲率をレベルセット法で近似するための誤差ニューラルモデルに基づく手法を提案する。
我々の主な貢献は、需要に応じて機械学習操作を可能にする数値スキームに依存する、再設計されたハイブリッド・ソルバである。
論文 参考訳(メタデータ) (2022-01-22T05:14:40Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。