論文の概要: Clustering and Classification Risks in Non-parametric Hidden Markov and I.I.D. Models
- arxiv url: http://arxiv.org/abs/2309.12238v3
- Date: Mon, 18 Nov 2024 08:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:27:44.976639
- Title: Clustering and Classification Risks in Non-parametric Hidden Markov and I.I.D. Models
- Title(参考訳): 非パラメトリック隠れマルコフとI.I.D.モデルにおけるクラスタリングと分類リスク
- Authors: Elisabeth Gassiat, Ibrahim Kaddouri, Zacharie Naulet,
- Abstract要約: クラスタリングのベイズリスクと分類のベイズリスクを詳細に分析する。
2つのリスクが同等かどうか、関連する最小化要因が関連しているかどうかを識別する。
次に、プラグインクラスタリング手順の過剰なリスクを制御する。
- 参考スコア(独自算出の注目度): 4.728478219127298
- License:
- Abstract: We provide an in-depth analysis of the Bayes risk of clustering and the Bayes risk of classification in the context of Hidden Markov and i.i.d. models. In both settings, we identify the situations where the two risks are comparable or not and those where the associated minimizers are related or not, as well as the key quantity measuring the difficulty of both tasks. Then, leveraging the nonparametric identifiability of HMMs, we control the excess risk of a plug-in clustering procedure. Simulations illustrate our findings.
- Abstract(参考訳): クラスタリングのベイズリスクとHidden Markovおよびi.d.モデルの文脈におけるベイズ分類のベイズリスクを詳細に分析する。
両設定において,2つのリスクが同等であるか否か,関連する最小化要因が関連しているか否か,および両タスクの難易度を測定する重要な量を特定する。
そして、HMMの非パラメトリック識別性を利用して、プラグインクラスタリング手順の過剰なリスクを制御する。
シミュレーションは私たちの発見を例示します。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - clusterBMA: Bayesian model averaging for clustering [1.2021605201770345]
本稿では、教師なしクラスタリングアルゴリズムの結果の重み付きモデル平均化を可能にするクラスタBMAを提案する。
クラスタリング内部検証基準を用いて、各モデルの結果の重み付けに使用される後続モデル確率の近似を開発する。
シミュレーションデータ上での他のアンサンブルクラスタリングメソッドのパフォーマンスに加えて、クラスタBMAは平均クラスタへの確率的アロケーションを含むユニークな機能を提供する。
論文 参考訳(メタデータ) (2022-09-09T04:55:20Z) - K-ARMA Models for Clustering Time Series Data [4.345882429229813]
K-Meansアルゴリズムのモデルベース一般化を用いた時系列データのクラスタリング手法を提案する。
クラスタリングアルゴリズムは,不確実な偏差基準を用いて,アウトレーヤに対して頑健にすることができることを示す。
我々は,時系列クラスタリングタスクにおいて,本手法が既存の手法と競合することを示す実データ実験を行った。
論文 参考訳(メタデータ) (2022-06-30T18:16:11Z) - Self-Evolutionary Clustering [1.662966122370634]
既存のディープクラスタリング手法の多くは、単純な距離比較に基づいており、手作り非線形マッピングによって生成されたターゲット分布に大きく依存している。
新たなモジュール型自己進化クラスタリング(Self-EvoC)フレームワークが構築され,自己管理的な分類によってクラスタリング性能が向上する。
このフレームワークは、サンプルアウトレイラを効率よく識別し、自己監督の助けを借りて、より良い目標分布を生成することができる。
論文 参考訳(メタデータ) (2022-02-21T19:38:18Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Vine copula mixture models and clustering for non-Gaussian data [0.0]
連続データのための新しいブドウパウラ混合モデルを提案する。
本研究では, モデルベースクラスタリングアルゴリズムにおいて, ベインコプラ混合モデルが他のモデルベースクラスタリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-05T16:04:26Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - Robust M-Estimation Based Bayesian Cluster Enumeration for Real
Elliptically Symmetric Distributions [5.137336092866906]
データセットにおける最適なクラスタ数のロバストな決定は、広範囲のアプリケーションにおいて必須の要素である。
本稿では任意のReally Symmetric(RES)分散混合モデルで使用できるように一般化する。
サンプルサイズが有限であるデータセットに対して,ロバストな基準を導出するとともに,大規模なサンプルサイズでの計算コスト削減のための近似を提供する。
論文 参考訳(メタデータ) (2020-05-04T11:44:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。