論文の概要: Interpretable Kernel Representation Learning at Scale: A Unified Framework Utilizing Nyström Approximation
- arxiv url: http://arxiv.org/abs/2509.24467v1
- Date: Mon, 29 Sep 2025 08:45:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.870671
- Title: Interpretable Kernel Representation Learning at Scale: A Unified Framework Utilizing Nyström Approximation
- Title(参考訳): スケールでの解釈可能なカーネル表現学習:Nyström近似を用いた統一フレームワーク
- Authors: Maedeh Zarvandi, Michael Timothy, Theresa Wasserer, Debarghya Ghoshdastidar,
- Abstract要約: 我々は、Nystrによるカーネルベースの表現学習のための統一フレームワークであるKREPESを紹介する。
KREPESは、広範囲の非監督的かつ自己監督的な損失に対応している。
これは学習した表現の原則的解釈可能性を可能にし、深層モデルよりもすぐれた利益をもたらす。
- 参考スコア(独自算出の注目度): 6.209111342262837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel methods provide a theoretically grounded framework for non-linear and non-parametric learning, with strong analytic foundations and statistical guarantees. Yet, their scalability has long been limited by prohibitive time and memory costs. While progress has been made in scaling kernel regression, no framework exists for scalable kernel-based representation learning, restricting their use in the era of foundation models where representations are learned from massive unlabeled data. We introduce KREPES -- a unified, scalable framework for kernel-based representation learning via Nystr\"om approximation. KREPES accommodates a wide range of unsupervised and self-supervised losses, and experiments on large image and tabular datasets demonstrate its efficiency. Crucially, KREPES enables principled interpretability of the learned representations, an immediate benefit over deep models, which we substantiate through dedicated analysis.
- Abstract(参考訳): カーネル法は、強力な解析基盤と統計的保証を備えた、非線形および非パラメトリック学習のための理論的基盤となるフレームワークを提供する。
しかし、そのスケーラビリティは禁断の時間とメモリコストによって長い間制限されてきた。
カーネルレグレッションのスケーリングには進歩があったが、スケーラブルなカーネルベースの表現学習のためのフレームワークは存在しない。
我々は、Nystr\"om approximation"を通じてカーネルベースの表現学習のための統一的でスケーラブルなフレームワークであるKREPESを紹介する。
KREPESは、広範囲の教師なしと自己管理された損失に対応しており、大きな画像と表のデータセットの実験は、その効率を実証している。
重要なことは、KREPESは学習された表現の原理的解釈可能性を可能にし、深いモデルよりもすぐれた利益をもたらす。
関連論文リスト
- A Theory of Inference Compute Scaling: Reasoning through Directed Stochastic Skill Search [15.387256204743407]
大規模言語モデル(LLM)は、訓練と配備の間にかなりの計算量、エネルギー、財務資源を必要とする。
推論コストは、今やリソース全体の負担の重要かつ増大する要素である。
本稿では,学習したスキルグラフ上での推論を表現力として表現する一般的なフレームワークである有向スキルサーチ(DS3)を紹介する。
論文 参考訳(メタデータ) (2025-06-10T14:47:48Z) - A Statistical Theory of Contrastive Learning via Approximate Sufficient Statistics [19.24473530318175]
我々はデータ拡張に基づくコントラスト学習を解析するための新しい理論フレームワークを開発した。
我々は,SimCLRなどのコントラスト損失を最小化すれば,ほぼ十分エンコーダが得られることを示す。
論文 参考訳(メタデータ) (2025-03-21T21:07:18Z) - Unifying Self-Supervised Clustering and Energy-Based Models [9.3176264568834]
自己教師付き学習と生成モデルとの間には,原則的な関連性を確立する。
シンボル接地問題の単純かつ非自明なインスタンス化に対処するために,我々の解法をニューロシンボリックな枠組みに統合できることが示される。
論文 参考訳(メタデータ) (2023-12-30T04:46:16Z) - Non-Parametric Representation Learning with Kernels [6.944372188747803]
いくつかのカーネルベース表現学習手法を導入・分析する。
教師付きカーネルマシンの古典的表現定理は、(自己教師型)表現学習には必ずしも適用されない。
我々は,これらの手法の性能を,ニューラルネットワークベースモデルと比較して実証的に評価した。
論文 参考訳(メタデータ) (2023-09-05T08:14:25Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Benchmarking the Robustness of LiDAR Semantic Segmentation Models [78.6597530416523]
本稿では,LiDARセマンティックセグメンテーションモデルのロバスト性を,様々な汚職の下で包括的に解析することを目的とする。
本稿では,悪天候,計測ノイズ,デバイス間不一致という3つのグループで16のドメイン外LiDAR破損を特徴とするSemanticKITTI-Cというベンチマークを提案する。
我々は、単純だが効果的な修正によってロバスト性を大幅に向上させるロバストLiDARセグメンテーションモデル(RLSeg)を設計する。
論文 参考訳(メタデータ) (2023-01-03T06:47:31Z) - Confident Sinkhorn Allocation for Pseudo-Labeling [40.883130133661304]
半教師付き学習は、ラベル付きデータへの機械学習の依存を減らす重要なツールである。
本稿では,疑似ラベル作成における不確実性の役割を理論的に研究し,CSA(Confident Sinkhorn Allocation)を提案する。
CSAは、信頼度の高いサンプルのみへの最適な輸送を通して、最高の擬似ラベル割り当てを特定する。
論文 参考訳(メタデータ) (2022-06-13T02:16:26Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。