論文の概要: Local and Multi-Scale Strategies to Mitigate Exponential Concentration in Quantum Kernels
- arxiv url: http://arxiv.org/abs/2602.16097v1
- Date: Wed, 18 Feb 2026 00:00:56 GMT
- ステータス: 情報取得中
- システム内更新日: 2026-02-19 12:27:11.17757
- Title: Local and Multi-Scale Strategies to Mitigate Exponential Concentration in Quantum Kernels
- Title(参考訳): 量子カーネルにおける指数集中緩和のための局所的・多スケール戦略
- Authors: Claudia Zendejas-Morales, Debashis Saikia, Utkarsh Singh,
- Abstract要約: 本稿では,Qiskitで実施された2つの緩和戦略の実証的研究について述べる。
我々は、マッチした前処理、分割、SVMプロトコルの下で、ベースライン、ローカル、マルチスケールカーネルをベンチマークする。
本稿では, 対角線外カーネル統計に基づく濃度診断, 有効ランクによるスペクトル富度, ラベルとのアライメントを中心に報告する。
- 参考スコア(独自算出の注目度): 0.6882042556551609
- License:
- Abstract: Fidelity-based quantum kernels provide a direct interface between quantum feature maps and classical kernel methods, but they can exhibit exponential concentration: with increasing system size or circuit expressivity, the Gram matrix approaches the identity and suppresses informative similarity structure. We present an empirical study of two mitigation strategies implemented in Qiskit: (i) local (patch-wise) kernels that aggregate subsystem similarities, and (ii) multi-scale kernels that mix local and global similarity across patch granularities. We benchmark baseline, local, and multi-scale kernels under matched preprocessing, splits, and SVM protocols on several tabular datasets, sweeping the feature dimension $d\in\{4,6,\dots,20\}$. We report concentration diagnostics based on off-diagonal kernel statistics, spectral richness via effective rank, and centered alignment with labels. Across datasets, local and multi-scale constructions consistently mitigate concentration and yield richer kernel spectra relative to the global fidelity baseline, while the impact on classification accuracy depends on the dataset and dimension.
- Abstract(参考訳): 忠実度に基づく量子カーネルは、量子特徴写像と古典的カーネル法の間の直接的なインターフェースを提供するが、指数関数的な濃度を示す: システムサイズや回路表現度が増加すると、グラム行列はアイデンティティに近づき、情報的類似性構造を抑制する。
本稿では,Qiskitで実施された2つの緩和戦略の実証的研究について述べる。
(i)サブシステム類似性を集約するローカル(パッチワイド)カーネル、及び
(ii)パッチの粒度に局所的および大域的類似性を混合したマルチスケールカーネル。
我々は、マッチした前処理、分割、SVMプロトコルの下で、ベースライン、ローカル、マルチスケールのカーネルをベンチマークし、機能次元を$d\in\{4,6,\dots,20\}$にする。
本稿では, 対角線外カーネル統計に基づく濃度診断, 有効ランクによるスペクトル富度, ラベルとのアライメントを中心に報告する。
データセット全体にわたって、局所的およびマルチスケールな構成は、常に集中を緩和し、グローバルな忠実度ベースラインに対するよりリッチなカーネルスペクトルを得る一方、分類精度への影響はデータセットと寸法に依存する。
関連論文リスト
- Cluster-Level Sparse Multi-Instance Learning for Whole-Slide Images [9.658549716966176]
クラスタレベルのスパースMIL(csMIL)は、グローバルなローカルインスタンスクラスタリング、クラスタ内の注意、クラスタレベルのスパース性誘導を統合する新しいフレームワークである。
当社のcsMILはまず,すべてのバッグに対してグローバルなクラスタリングを実施して$K$クラスタセンターを確立し,続いて各バッグ内のローカルクラスタリングを実施してクラスタラベルを割り当てています。
このアプローチは、ノイズの多いインスタンスに対する堅牢性を高め、臨界領域を特定して解釈可能性を高め、計算複雑性を低減する。
論文 参考訳(メタデータ) (2025-09-14T01:50:51Z) - Scalable Context-Preserving Model-Aware Deep Clustering for Hyperspectral Images [51.95768218975529]
ハイパースペクトル画像(HSI)の教師なし解析にサブスペースクラスタリングが広く採用されている。
近年のモデル対応深層空間クラスタリング手法では、O(n2)の複雑性を持つ自己表現行列の計算とスペクトルクラスタリングを含む2段階のフレームワークを用いることが多い。
本稿では,HSIクラスタリングを効率的に行うために,局所構造と非局所構造を協調的にキャプチャする,ベース表現に基づく拡張性のあるコンテキスト保存深層クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2025-06-12T16:43:09Z) - MIK: Modified Isolation Kernel for Biological Sequence Visualization, Classification, and Clustering [3.9146761527401424]
本研究は,ガウスカーネルの代替として,改良分離カーネル (MIK) と呼ばれる新しいアプローチを提案する。
MIKは適応密度推定を用いて局所構造をより正確に捉え、ロバストネス対策を統合する。
局所的および大域的な構造の保存を改善し、組込み空間におけるクラスタとサブクラスタのより良い可視化を可能にする。
論文 参考訳(メタデータ) (2024-10-21T06:57:09Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Recovery Guarantees for Kernel-based Clustering under Non-parametric
Mixture Models [26.847612684502998]
非パラメトリック混合モデルに基づくカーネルベースのクラスタリングアルゴリズムの統計的性能について検討する。
我々は、カーネルベースのデータクラスタリングとカーネル密度ベースのクラスタリングの間に重要な等価性を確立する。
論文 参考訳(メタデータ) (2021-10-18T17:23:54Z) - Density-Based Clustering with Kernel Diffusion [59.4179549482505]
単位$d$次元ユークリッド球のインジケータ関数に対応するナイーブ密度は、密度に基づくクラスタリングアルゴリズムで一般的に使用される。
局所分布特性と滑らかさの異なるデータに適応する新しいカーネル拡散密度関数を提案する。
論文 参考訳(メタデータ) (2021-10-11T09:00:33Z) - Kernel k-Means, By All Means: Algorithms and Strong Consistency [21.013169939337583]
Kernel $k$クラスタリングは、非線形データの教師なし学習のための強力なツールである。
本稿では,最適化された局所解に対処するための一般的な手法を応用した結果を一般化する。
我々のアルゴリズムは、この非線形分離問題をよりよく解くために、Magricalization-minimization (MM) を利用している。
論文 参考訳(メタデータ) (2020-11-12T16:07:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。