論文の概要: Nonparametric Kernel Clustering with Bandit Feedback
- arxiv url: http://arxiv.org/abs/2601.07535v1
- Date: Mon, 12 Jan 2026 13:36:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.413515
- Title: Nonparametric Kernel Clustering with Bandit Feedback
- Title(参考訳): 帯域フィードバックを用いた非パラメトリックカーネルクラスタリング
- Authors: Victor Thuot, Sebastian Vogt, Debarghya Ghoshdastidar, Nicolas Verzelen,
- Abstract要約: バンディットフィードバックによるクラスタリングは、クラスタリングアルゴリズムがアイテムをシーケンシャルにクエリしてノイズの多い観察を受信する、一連のアイテムを分割する問題を指す。
我々はカーネルベースのアプローチを導入し、非パラメトリック問題をヒルベルトカーネル空間(RKHS)への平均埋め込みをカーネルに従ってクラスタ化するタスクとして再構築する。
本稿では,アーム分布の最大平均誤差(MMD)とRKHSのばらつきに依存する問題に対して,信号対雑音比の概念を導入する。
- 参考スコア(独自算出の注目度): 9.68728390492671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering with bandit feedback refers to the problem of partitioning a set of items, where the clustering algorithm can sequentially query the items to receive noisy observations. The problem is formally posed as the task of partitioning the arms of an N-armed stochastic bandit according to their underlying distributions, grouping two arms together if and only if they share the same distribution, using samples collected sequentially and adaptively. This setting has gained attention in recent years due to its applicability in recommendation systems and crowdsourcing. Existing works on clustering with bandit feedback rely on a strong assumption that the underlying distributions are sub-Gaussian. As a consequence, the existing methods mainly cover settings with linearly-separable clusters, which has little practical relevance. We introduce a framework of ``nonparametric clustering with bandit feedback'', where the underlying arm distributions are not constrained to any parametric, and hence, it is applicable for active clustering of real-world datasets. We adopt a kernel-based approach, which allows us to reformulate the nonparametric problem as the task of clustering the arms according to their kernel mean embeddings in a reproducing kernel Hilbert space (RKHS). Building on this formulation, we introduce the KABC algorithm with theoretical correctness guarantees and analyze its sampling budget. We introduce a notion of signal-to-noise ratio for this problem that depends on the maximum mean discrepancy (MMD) between the arm distributions and on their variance in the RKHS. Our algorithm is adaptive to this unknown quantity: it does not require it as an input yet achieves instance-dependent guarantees.
- Abstract(参考訳): バンディットフィードバックによるクラスタリングは、一連のアイテムを分割する問題を指し、クラスタリングアルゴリズムは、アイテムをシーケンシャルにクエリしてノイズの多い観察を受けることができる。
この問題は、N腕の確率的バンディットの腕をその基礎的な分布に従って分割し、2つの腕を同じ分布を共有する場合に限って、順次、適応的に収集されたサンプルを用いてグループ化するタスクとして公式に提起される。
この設定は近年、レコメンデーションシステムやクラウドソーシングの適用性から注目されている。
既存のバンディットフィードバックによるクラスタリングの研究は、基礎となる分布がガウス群であるという強い仮定に依存している。
その結果、既存の手法は主に線形分離可能なクラスタによる設定をカバーしており、実際的な関連性はほとんどない。
本稿では,「バンドフィードバックを伴う非パラメトリッククラスタリング」というフレームワークを導入し,その基盤となるアーム分布は任意のパラメトリックに制約されず,実世界のデータセットのアクティブクラスタリングに適用可能であることを示す。
我々は、カーネルベースのアプローチを採用し、非パラメトリック問題を、再現されたカーネルヒルベルト空間(RKHS)に、そのカーネル平均埋め込みに従ってアームをクラスタ化するタスクとして再構成することができる。
この定式化に基づいて、理論的正当性を保証するKABCアルゴリズムを導入し、そのサンプリング予算を分析する。
本稿では,アーム分布の最大平均誤差(MMD)とRKHSのばらつきに依存する問題に対して,信号対雑音比の概念を導入する。
我々のアルゴリズムはこの未知の量に適応しており、入力として必要ありませんが、インスタンスに依存した保証が得られます。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Cluster truncated Wigner approximation for bond-disordered Heisenberg spin models [0.0]
クラスタートリニケートウィグナー近似(cTWA)は、結合非秩序なハイゼンベルクスピン鎖のクエンチダイナミクスとパワー-ロー相互作用に応用される。
当初導入されたガウス近似に基づくスキームの代替として、初期ウィグナー関数の離散サンプリングスキームを開発する。
論文 参考訳(メタデータ) (2024-07-01T18:00:06Z) - Near-Optimal Resilient Aggregation Rules for Distributed Learning Using 1-Center and 1-Mean Clustering with Outliers [24.88026399458157]
ビザンティンの機械学習は、予測不可能な欠陥によってかなりの注目を集めている。
分散学習におけるマシンのセキュア化の鍵は、レジリエントな集約メカニズムである。
論文 参考訳(メタデータ) (2023-12-20T08:36:55Z) - Tight integration of neural- and clustering-based diarization through
deep unfolding of infinite Gaussian mixture model [84.57667267657382]
本稿では,統合フレームワークにトレーニング可能なクラスタリングアルゴリズムを導入する。
話者埋め込みはトレーニング中に最適化され、iGMMクラスタリングに適合する。
実験の結果,提案手法はダイアリゼーション誤差率において従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-02-14T07:45:21Z) - Optimal Clustering with Bandit Feedback [57.672609011609886]
本稿では,バンディットフィードバックを用いたオンラインクラスタリングの問題点について考察する。
これは、NPハード重み付きクラスタリング問題をサブルーチンとして解決する必要性を回避するための、シーケンシャルなテストのための新しい停止規則を含む。
合成および実世界のデータセットの広範なシミュレーションを通して、BOCの性能は下界と一致し、非適応的ベースラインアルゴリズムよりも大幅に優れることを示す。
論文 参考訳(メタデータ) (2022-02-09T06:05:05Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Recovery Guarantees for Kernel-based Clustering under Non-parametric
Mixture Models [26.847612684502998]
非パラメトリック混合モデルに基づくカーネルベースのクラスタリングアルゴリズムの統計的性能について検討する。
我々は、カーネルベースのデータクラスタリングとカーネル密度ベースのクラスタリングの間に重要な等価性を確立する。
論文 参考訳(メタデータ) (2021-10-18T17:23:54Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z) - Implicit Distributional Reinforcement Learning [61.166030238490634]
2つのディープジェネレータネットワーク(DGN)上に構築された暗黙の分布型アクター批判(IDAC)
半単純アクター (SIA) は、フレキシブルなポリシー分布を利用する。
我々は,代表的OpenAI Gym環境において,IDACが最先端のアルゴリズムより優れていることを観察する。
論文 参考訳(メタデータ) (2020-07-13T02:52:18Z) - A generalized Bayes framework for probabilistic clustering [3.3194866396158]
k平均とその変種のようなロスベースのクラスタリング手法は、データ内のグループを見つけるための標準ツールである。
混合モデルに基づくモデルベースのクラスタリングは代替手段を提供するが、そのような手法は計算上の問題に直面し、カーネルの選択に対して大きな感度を持つ。
本稿では,これらの2つのパラダイムをGibs後続法を用いてブリッジする一般化ベイズフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T18:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。