論文の概要: Elastic-Net Multiple Kernel Learning: Combining Multiple Data Sources for Prediction
- arxiv url: http://arxiv.org/abs/2512.11547v1
- Date: Fri, 12 Dec 2025 13:33:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.78255
- Title: Elastic-Net Multiple Kernel Learning: Combining Multiple Data Sources for Prediction
- Title(参考訳): Elastic-Net Multiple Kernel Learning:予測に複数のデータソースを組み合わせる
- Authors: Janaina Mourão-Miranda, Zakria Hussain, Konstantinos Tsirlis, Christophe Phillips, John Shawe-Taylor,
- Abstract要約: 弾性ネット正規化MKL(ENMKL)は、モデル解釈容易性が重要である場合に特に有用である。
本稿では,カーネル重みに対する簡単な解析的更新を行うENMKLの定式化を提案する。
我々は、これらのENMKLアルゴリズムを、$l1$-norm MKLに対して、SVM(またはKRR)に対して実装し、カーネルの未加重和に基づいて訓練する。
- 参考スコア(独自算出の注目度): 4.293341792967467
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multiple Kernel Learning (MKL) models combine several kernels in supervised and unsupervised settings to integrate multiple data representations or sources, each represented by a different kernel. MKL seeks an optimal linear combination of base kernels that maximizes a generalized performance measure under a regularization constraint. Various norms have been used to regularize the kernel weights, including $l1$, $l2$ and $lp$, as well as the "elastic-net" penalty, which combines $l1$- and $l2$-norm to promote both sparsity and the selection of correlated kernels. This property makes elastic-net regularized MKL (ENMKL) especially valuable when model interpretability is critical and kernels capture correlated information, such as in neuroimaging. Previous ENMKL methods have followed a two-stage procedure: fix kernel weights, train a support vector machine (SVM) with the weighted kernel, and then update the weights via gradient descent, cutting-plane methods, or surrogate functions. Here, we introduce an alternative ENMKL formulation that yields a simple analytical update for the kernel weights. We derive explicit algorithms for both SVM and kernel ridge regression (KRR) under this framework, and implement them in the open-source Pattern Recognition for Neuroimaging Toolbox (PRoNTo). We evaluate these ENMKL algorithms against $l1$-norm MKL and against SVM (or KRR) trained on the unweighted sum of kernels across three neuroimaging applications. Our results show that ENMKL matches or outperforms $l1$-norm MKL in all tasks and only underperforms standard SVM in one scenario. Crucially, ENMKL produces sparser, more interpretable models by selectively weighting correlated kernels.
- Abstract(参考訳): マルチカーネルラーニング(MKL)モデルは、複数のカーネルを教師付きおよび教師なしの設定で組み合わせ、複数のデータ表現やソースを統合する。
MKLは、正規化制約の下で一般化された性能尺度を最大化するベースカーネルの最適線形結合を求める。
例えば、$l1$、$l2$、$lp$、および$l1$-と$l2$-normを組み合わせた"elastic-net"ペナルティである。
この性質は、モデル解釈可能性が重要であり、カーネルがニューロイメージングなどの相関情報をキャプチャするときに、弾性ネット正規化MKL(ENMKL)を特に有益にする。
以前のENMKL法は、カーネルウェイトを固定し、重み付きカーネルでサポートベクターマシン(SVM)を訓練し、勾配降下、カットプレーン法またはサロゲート関数によって重みを更新する2段階の手順に従っていた。
本稿では,カーネル重みに対する簡単な解析的更新を行うENMKLの定式化を提案する。
本フレームワークでは,SVMとカーネルリッジ回帰(KRR)の両方に対して明示的なアルゴリズムを導出し,それをオープンソースのParning Recognition for Neuroimaging Toolbox(PRoNTo)に実装する。
我々は、これらのENMKLアルゴリズムを、$l1$-norm MKLとSVM(またはKRR)に対して評価し、3つのニューロイメージングアプリケーションにまたがるカーネルの無重み付け和をトレーニングした。
その結果、ENMKLは全てのタスクにおいて$l1$-norm MKLと一致または性能が良く、1つのシナリオで標準SVMを過小評価していることがわかった。
重要なことにENMKLは、相関するカーネルを選択的に重み付けすることで、スペーサーでより解釈可能なモデルを生成する。
関連論文リスト
- Multiple Kernel Clustering via Local Regression Integration [4.856913393644719]
複数のカーネルメソッドは、複数のカーネルデータの固有の多様体構造をあまり考慮しない。
本稿ではまず,カーネル型局所回帰(CKLR)を用いたクラスタリング手法を提案する。
次に、マルチカーネルローカルレグレッション(CMKLR)を介してクラスタリングを行うように拡張する。
論文 参考訳(メタデータ) (2024-10-20T06:26:29Z) - DKL-KAN: Scalable Deep Kernel Learning using Kolmogorov-Arnold Networks [0.0]
本稿では,DKL-MLPを用いたDKLの代替として,kan(DKL-KAN)を用いたスケーラブルなディープカーネルを提案する。
DKL-MLPと比較して,DKL-KANの2つの変種を分析した。
DKL-KANの有効性は、幅広いアプリケーションにわたる計算訓練時間とテスト予測精度の観点から評価される。
論文 参考訳(メタデータ) (2024-07-30T20:30:44Z) - On the Identifiability and Interpretability of Gaussian Process Models [8.417178903130244]
単出力ガウス過程(GP)モデルにおいて,Mat'ernカーネルの加法的混合を用いることの一般的な実践を批判的に検討する。
マタン核の混合の滑らかさは、最小の滑らかな成分によって決定され、そのような核を持つGPは、実質的に最小の滑らかなカーネル成分と等価であることを示す。
A$は乗算定数まで同定可能であることを示し、乗算混合が多出力タスクに適していることを示唆する。
論文 参考訳(メタデータ) (2023-10-25T22:00:29Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Quantum Multiple Kernel Learning [1.9116668545881028]
カーネルメソッドは、その概念的単純さと優れたパフォーマンスのために、機械学習アプリケーションにおいて重要な役割を果たす。
カーネルマシンの表現性を高める1つのアプローチは、複数の個々のカーネルを組み合わせることである。
複数の量子カーネルを組み合わせた量子MKLを提案する。
論文 参考訳(メタデータ) (2020-11-19T07:19:41Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - Isolation Distributional Kernel: A New Tool for Point & Group Anomaly
Detection [76.1522587605852]
分離分散カーネル(IDK)は2つの分布の類似性を測定する新しい方法である。
我々は、カーネルベースの異常検出のための新しいツールとして、IDKの有効性と効率を示す。
論文 参考訳(メタデータ) (2020-09-24T12:25:43Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。