論文の概要: Metric Learning in an RKHS
- arxiv url: http://arxiv.org/abs/2508.04476v1
- Date: Wed, 06 Aug 2025 14:29:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.755948
- Title: Metric Learning in an RKHS
- Title(参考訳): RKHSにおけるメトリックラーニング
- Authors: Gokcan Tatli, Yi Chen, Blake Mason, Robert Nowak, Ramya Korlakai Vinayak,
- Abstract要約: 画像検索,レコメンデーションシステム,認知心理学など,様々な応用において,項目hが項目iや項目jに類似していると考えるか?
本稿では、計量学習のための一般的なRKHSフレームワークを開発し、新しい一般化保証とサンプル境界を提供する。
- 参考スコア(独自算出の注目度): 16.72763231021239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Metric learning from a set of triplet comparisons in the form of "Do you think item h is more similar to item i or item j?", indicating similarity and differences between items, plays a key role in various applications including image retrieval, recommendation systems, and cognitive psychology. The goal is to learn a metric in the RKHS that reflects the comparisons. Nonlinear metric learning using kernel methods and neural networks have shown great empirical promise. While previous works have addressed certain aspects of this problem, there is little or no theoretical understanding of such methods. The exception is the special (linear) case in which the RKHS is the standard Euclidean space $\mathbb{R}^d$; there is a comprehensive theory for metric learning in $\mathbb{R}^d$. This paper develops a general RKHS framework for metric learning and provides novel generalization guarantees and sample complexity bounds. We validate our findings through a set of simulations and experiments on real datasets. Our code is publicly available at https://github.com/RamyaLab/metric-learning-RKHS.
- Abstract(参考訳): 画像検索,レコメンデーションシステム,認知心理学など,様々な応用において,項目間の類似性や相違点を示す「項目hは項目iや項目jとより類似していると思うか?」という形で,一連の三重項比較からメトリクス学習が重要な役割を果たしている。
目標は、比較を反映したRKHSでメトリクスを学ぶことである。
カーネル法とニューラルネットワークを用いた非線形メトリック学習は、非常に実証的な可能性を示している。
これまでの研究はこの問題の特定の側面に対処してきたが、そのような方法に関する理論的理解はほとんど、あるいは全くない。
例外は、RKHS が標準ユークリッド空間 $\mathbb{R}^d$ である特別な(線型)ケースである。
本稿では、計量学習のための一般的なRKHSフレームワークを開発し、新しい一般化保証とサンプル複雑性境界を提供する。
実データセット上でのシミュレーションと実験により,本研究の成果を検証した。
私たちのコードはhttps://github.com/RamyaLab/metric-learning-RKHSで公開されています。
関連論文リスト
- Is Compression Really Linear with Code Intelligence? [60.123628177110206]
textitFormat Annealingは、事前訓練されたモデルの本質的な能力を同等に評価するために設計された、軽量で透明なトレーニング手法である。
我々の経験的結果は、測定されたコードインテリジェンスとビット・パー・キャラクタ(BPC)の基本的な対数関係を明らかにする。
私たちの研究は、コードインテリジェンスの開発における圧縮の役割をより微妙に理解し、コードドメインにおける堅牢な評価フレームワークに貢献します。
論文 参考訳(メタデータ) (2025-05-16T16:59:14Z) - Convolutional Filtering with RKHS Algebras [110.06688302593349]
我々は、Kernel Hilbert Spaces(RKHS)の再生のための畳み込み信号処理とニューラルネットワークの理論を開発する。
任意の RKHS が複数の代数的畳み込みモデルの形式的定義を可能にすることを示す。
本研究では,無人航空機による実測値から無線通信を予測できる実データに関する数値実験について述べる。
論文 参考訳(メタデータ) (2024-11-02T18:53:44Z) - Is Inverse Reinforcement Learning Harder than Standard Reinforcement
Learning? A Theoretical Perspective [55.36819597141271]
逆強化学習(IRL: Inverse Reinforcement Learning)は、インテリジェントシステム開発において重要な役割を担う。
本稿では、サンプルとランタイムを用いて、バニラのオフラインおよびオンライン設定における効率的なIRLの最初のラインを提供する。
応用として、学習した報酬は適切な保証で他のターゲットMDPに転送可能であることを示す。
論文 参考訳(メタデータ) (2023-11-29T00:09:01Z) - 1-Lipschitz Layers Compared: Memory, Speed, and Certifiable Robustness [22.09354138194545]
境界等級の入力摂動に対するニューラルネットワークの堅牢性は、ディープラーニングモデルの安全クリティカルシステムへの展開において深刻な関心事である。
近年、科学コミュニティは、リプシッツ境界層と畳み込み層を利用する1-Lipschitzニューラルネットワークを構築することで、証明可能な堅牢性を保証することに重点を置いている。
本稿では, メモリ使用量, 速度, 証明可能なロバストな精度で評価することで, 提案手法の理論的, 実証的な比較を行う。
論文 参考訳(メタデータ) (2023-11-28T14:50:50Z) - Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - Learning in RKHM: a $C^*$-Algebraic Twist for Kernel Machines [13.23700804428796]
カーネルヒルベルト空間(RKHS)とベクトル値RKHS(vvRKHS)の再現学習は30年以上にわたって研究されてきた。
我々は、RKHSとvvRKHSの教師あり学習をカーネルHilbert $C*$-module (RKHM) の再生に一般化することで、新しいツイストを提供する。
我々は、$C*$-algebraの観点から、有効正定値カーネルを構築する方法を示す。
論文 参考訳(メタデータ) (2022-10-21T10:23:54Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Towards Interpretable Deep Metric Learning with Structural Matching [86.16700459215383]
より透過的な埋め込み学習のための深層解釈可能なメトリック学習(DIML)法を提案する。
本手法は,既製のバックボーンネットワークやメトリック学習手法に適用可能な,モデルに依存しない手法である。
我々は,CUB200-2011,Cars196,Stanford Online Productsの3つの大規模メトリクス学習ベンチマークで評価を行った。
論文 参考訳(メタデータ) (2021-08-12T17:59:09Z) - Positive semidefinite support vector regression metric learning [0.0]
これらのシナリオにおけるメートル法学習問題に対処するためにRAMLフレームワークが提案されている。
計量学習に必要な正の半定距離メートル法を学習することはできない。
弱さを克服するために2つのメソドを提案する。
論文 参考訳(メタデータ) (2020-08-18T04:45:59Z) - Supervised Categorical Metric Learning with Schatten p-Norms [10.995886294197412]
そこで我々は,分類データにおける計量学習の問題に対処する手法としてCPML(CPML)を提案する。
我々は、データを表すためにValue Distance Metricを使用し、この表現に基づいて新しい距離を提案する。
次に、新しいメトリクスを効率的に学習する方法を示します。
論文 参考訳(メタデータ) (2020-02-26T01:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。