論文の概要: Constrained Clustering and Multiple Kernel Learning without Pairwise
Constraint Relaxation
- arxiv url: http://arxiv.org/abs/2203.12546v1
- Date: Wed, 23 Mar 2022 17:07:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 13:31:04.485114
- Title: Constrained Clustering and Multiple Kernel Learning without Pairwise
Constraint Relaxation
- Title(参考訳): Pairwise Constraint Relaxationのない制約クラスタリングとマルチカーネル学習
- Authors: Benedikt Boecking, Vincent Jeanselme, Artur Dubrawski
- Abstract要約: 本稿では,データを協調的にクラスタリングし,利用可能なペアワイズ制約に従ってカーネルを学習する,制約付きクラスタリングアルゴリズムを提案する。
提案手法は,多種多様な公開データセットにおいて,既存の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 15.232192645789485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering under pairwise constraints is an important knowledge discovery
tool that enables the learning of appropriate kernels or distance metrics to
improve clustering performance. These pairwise constraints, which come in the
form of must-link and cannot-link pairs, arise naturally in many applications
and are intuitive for users to provide. However, the common practice of
relaxing discrete constraints to a continuous domain to ease optimization when
learning kernels or metrics can harm generalization, as information which only
encodes linkage is transformed to informing distances. We introduce a new
constrained clustering algorithm that jointly clusters data and learns a kernel
in accordance with the available pairwise constraints. To generalize well, our
method is designed to maximize constraint satisfaction without relaxing
pairwise constraints to a continuous domain where they inform distances. We
show that the proposed method outperforms existing approaches on a large number
of diverse publicly available datasets, and we discuss how our method can scale
to handling large data.
- Abstract(参考訳): ペアワイズ制約下でのクラスタリングは、適切なカーネルや距離メトリクスの学習によるクラスタリングのパフォーマンス向上を可能にする、重要な知識発見ツールである。
これらのペアワイズ制約は、必須リンクと無リンクペアの形式で、多くのアプリケーションで自然に発生し、ユーザが提供できる直感的なものだ。
しかしながら、カーネルやメトリクスを学ぶ際の最適化を容易にするために、離散的な制約を連続的なドメインに緩和するという一般的なプラクティスは、リンクのみをエンコードする情報は距離を知らせるために変換されるため、一般化を損なうことがある。
本稿では,利用可能なペアワイズ制約に従って,データをクラスタリングし,カーネルを学習する新しい制約付きクラスタリングアルゴリズムを提案する。
そこで本手法は,距離を知らせる連続領域に対して対関係制約を緩和することなく,制約満足度を最大化するように設計されている。
提案手法は,多種多様な公開データセットにおける既存手法よりも優れており,大規模データを扱う際にどのようにスケールできるかを考察する。
関連論文リスト
- Kernel Correlation-Dissimilarity for Multiple Kernel k-Means Clustering [21.685153346752124]
現在の手法は情報多様性を高め、相関性や相似性に基づいて複数のカーネル間の相互依存を利用して冗長性を低減する。
本稿では,カーネルの相関と相似性の両方を体系的に統合する新しい手法を提案する。
カーネル相関と相違点のコヒーレンスを強調することにより,非線形情報抽出のためのより客観的かつ透明な戦略を提供する。
論文 参考訳(メタデータ) (2024-03-06T04:24:43Z) - Large Scale Constrained Clustering With Reinforcement Learning [1.3597551064547502]
ネットワークが与えられた場合、各ノードではなく、クラスタレベルでリソースを割り当てることによって、リソースの割り当てと使用効率が向上する。
本稿では,この制約付きクラスタリング問題を強化学習を用いて解く手法を提案する。
結果の節では,大規模インスタンスにおいても,アルゴリズムが最適に近い解を見つけることを示す。
論文 参考訳(メタデータ) (2024-02-15T18:27:18Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - On Leave-One-Out Conditional Mutual Information For Generalization [122.2734338600665]
残余条件付き相互情報(loo-CMI)の新しい尺度に基づく教師付き学習アルゴリズムのための情報理論の一般化境界を導出する。
他のCMI境界とは対照的に、我々のloo-CMI境界は容易に計算でき、古典的なout-out-out-cross-validationのような他の概念と関連して解釈できる。
ディープラーニングのシナリオにおいて予測された一般化ギャップを評価することにより,境界の質を実証的に検証する。
論文 参考訳(メタデータ) (2022-07-01T17:58:29Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - Optimization on manifolds: A symplectic approach [127.54402681305629]
本稿では、最適化問題を解くための一般的な枠組みとして、ディラックの制約付きハミルトン系理論の散逸拡張を提案する。
我々の(加速された)アルゴリズムのクラスは単純で効率的なだけでなく、幅広い文脈にも適用できる。
論文 参考訳(メタデータ) (2021-07-23T13:43:34Z) - Exploring dual information in distance metric learning for clustering [1.452875650827562]
本稿では,半教師付きクラスタリング問題の対の制約に付随する2つの情報を活用することを提案する。
実験により、距離メトリック学習アルゴリズムは、この2つの情報を統合することの利点を明らかに示している。
論文 参考訳(メタデータ) (2021-05-26T17:33:23Z) - Fairness, Semi-Supervised Learning, and More: A General Framework for
Clustering with Stochastic Pairwise Constraints [32.19047459493177]
我々は,いくつかの本質的クラスタリングの目的に組み込んだ,新しいemphstochastic pairwise制約系を導入する。
これらの制約は,半教師付き学習における emphinvidual fairness や emphmust-link 制約など,興味をそそるアプリケーションの集合を簡潔にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-02T20:27:58Z) - A Framework for Deep Constrained Clustering [19.07636653413663]
制約付きクラスタリングは、k平均、混合モデル、スペクトルクラスタリングなどの一般的なアルゴリズムには存在するが、いくつかの制限がある。
ここでは、制約クラスタリングのためのディープラーニングフレームワークを探索し、特に制約クラスタリングの分野を拡張する方法について検討します。
我々のフレームワークは、ラベル付き側情報から生成された標準的制約や部分的制約(先に報告した十分な文書化された負の影響を伴わない)を扱えないことを示す。
これら4種類の制約に一般的に適用できる効率的なトレーニングパラダイムを提案します。
論文 参考訳(メタデータ) (2021-01-07T22:49:06Z) - Learning, compression, and leakage: Minimising classification error via
meta-universal compression principles [87.054014983402]
学習シナリオのための圧縮技法の有望なグループは、正規化極大(NML)符号化である。
ここでは,教師付き分類問題に対するNMLに基づく意思決定戦略を検討し,多種多様なモデルに適用した場合にPAC学習を実現することを示す。
本手法の誤分類率は,プライバシに敏感なシナリオにおいて,データ漏洩の可能性を定量化するための指標である最大リークによって上限づけられていることを示す。
論文 参考訳(メタデータ) (2020-10-14T20:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。