論文の概要: Manifold Approximation leads to Robust Kernel Alignment
- arxiv url: http://arxiv.org/abs/2510.22953v1
- Date: Mon, 27 Oct 2025 03:16:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.430744
- Title: Manifold Approximation leads to Robust Kernel Alignment
- Title(参考訳): マニフォールド近似はロバストカーネルアライメントにつながる
- Authors: Mohammad Tariqul Islam, Du Liu, Deblina Sarkar,
- Abstract要約: センターカーネルアライメント(CKA)は、表現を比較するための一般的な指標である。
本稿では,アライメントタスクに多様体幾何を組み込んだKernel Alignment (MKA)を提案する。
この結果から, 多様体対応カーネルアライメントは, 表現を測定する上でより堅牢な基盤となることが示唆された。
- 参考スコア(独自算出の注目度): 0.48174297895861273
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Centered kernel alignment (CKA) is a popular metric for comparing representations, determining equivalence of networks, and neuroscience research. However, CKA does not account for the underlying manifold and relies on numerous heuristics that cause it to behave differently at different scales of data. In this work, we propose Manifold approximated Kernel Alignment (MKA), which incorporates manifold geometry into the alignment task. We derive a theoretical framework for MKA. We perform empirical evaluations on synthetic datasets and real-world examples to characterize and compare MKA to its contemporaries. Our findings suggest that manifold-aware kernel alignment provides a more robust foundation for measuring representations, with potential applications in representation learning.
- Abstract(参考訳): 中枢核アライメント(CKA)は、表現の比較、ネットワークの等価性の決定、神経科学研究における一般的な指標である。
しかし、CKAは基礎となる多様体を説明せず、異なるスケールのデータで異なる振る舞いを引き起こす多くのヒューリスティックに依存している。
本研究では,多様体幾何をアライメントタスクに組み込んだ Manifold almostd Kernel Alignment (MKA) を提案する。
MKAの理論的枠組みを導出する。
合成データセットと実世界の実例の実証評価を行い、MKAを同時代のものと比較した。
本研究は, 表現学習に応用可能な表現計測基盤として, 多様体対応カーネルアライメントが, より堅牢な基盤となることを示唆する。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - Rethinking Centered Kernel Alignment in Knowledge Distillation [17.67732046242562]
CKA(Centered Kernel Alignment)は、表現の類似性を測定するために広く用いられ、いくつかの知識蒸留法に応用されている。
本稿ではまず,CKAを最大平均離散値(MMD)の上界と定数項に分解するCKAの有効性を理論的に説明する。
本稿では,CKA と MMD の接続を事実上確立する新しい関係中心カーネルアライメント (RCKA) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-22T10:37:59Z) - Posterior Contraction Rates for Mat\'ern Gaussian Processes on
Riemannian Manifolds [51.68005047958965]
我々は,本質的なガウス過程が実際により優れた性能を発揮することを示す。
我々の研究は、データ効率の異なるレベルを区別するために、よりきめ細かい分析が必要であることを示している。
論文 参考訳(メタデータ) (2023-09-19T20:30:58Z) - Reliability of CKA as a Similarity Measure in Deep Learning [17.555458413538233]
我々はCKA感度を多種多様な単純な変換に特徴付ける分析を行う。
CKA類似度測定のいくつかの弱点について検討し、予期せぬ結果や反直感的な結果をもたらす状況を示す。
以上の結果から,CKAの値はモデルの機能的振る舞いにかなりの変化を伴わずに容易に操作できることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T14:32:52Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - Effective Data-aware Covariance Estimator from Compressed Data [63.16042585506435]
本研究では,データ対応重み付きサンプリングベース共分散行列推定器,すなわち DACE を提案し,非バイアス共分散行列推定を行う。
我々は、DACEの優れた性能を示すために、合成データセットと実世界のデータセットの両方で広範な実験を行う。
論文 参考訳(メタデータ) (2020-10-10T10:10:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。