論文の概要: Regularized K-means through hard-thresholding
- arxiv url: http://arxiv.org/abs/2010.00950v1
- Date: Fri, 2 Oct 2020 12:29:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 01:14:29.713875
- Title: Regularized K-means through hard-thresholding
- Title(参考訳): ハードthresholdingによる正規化k-means
- Authors: Jakob Raymaekers and Ruben H. Zamar
- Abstract要約: 本研究では,クラスタ中心の大きさの直接的ペナル化に基づく正規化$K$-means手法の枠組みについて検討する。
HT $K$-meansは$ell_0$のペナルティを使って変数のスパーシリティを誘導する。
提案手法は,より広範なシミュレーション研究において,最も一般的な正規化された$K$-means法と良好に積み重ねられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a framework of regularized $K$-means methods based on direct
penalization of the size of the cluster centers. Different penalization
strategies are considered and compared through simulation and theoretical
analysis. Based on the results, we propose HT $K$-means, which uses an $\ell_0$
penalty to induce sparsity in the variables. Different techniques for selecting
the tuning parameter are discussed and compared. The proposed method stacks up
favorably with the most popular regularized $K$-means methods in an extensive
simulation study. Finally, HT $K$-means is applied to several real data
examples. Graphical displays are presented and used in these examples to gain
more insight into the datasets.
- Abstract(参考訳): 我々は,クラスタ中心の大きさの直接ペナライズに基づく正規化$k$-means法の枠組みについて検討した。
異なるペナル化戦略はシミュレーションと理論解析によって検討・比較される。
この結果に基づいて,変数の間隔を誘導するために$\ell_0$ペナルティを使用するHT $K$-meansを提案する。
チューニングパラメータを選択するための異なるテクニックを議論し、比較する。
提案手法は,広範囲なシミュレーション研究において,最も一般的な正規化$k$-means法に適合する。
最後に、HT $K$-meansはいくつかの実データ例に適用される。
グラフィックディスプレイはこれらの例で示され、データセットに関する洞察を得るために使用される。
関連論文リスト
- Regret Minimization and Statistical Inference in Online Decision Making with High-dimensional Covariates [7.21848268647674]
我々は、決定のための$varepsilon$-greedybanditアルゴリズムと、疎帯域パラメータを推定するためのハードしきい値アルゴリズムを統合する。
マージン条件下では、我々の手法は、$O(T1/2)$ regret あるいは古典的な$O(T1/2)$-consistent推論のいずれかを達成する。
論文 参考訳(メタデータ) (2024-11-10T01:47:11Z) - DC Algorithm for Estimation of Sparse Gaussian Graphical Models [3.291862617649511]
グラフィカルモデルのスパース推定のための合成アルゴリズムを開発した。
提案手法は,既存の手法と同等か,あるいは優れている結果に関して,特に有利であることを示す。
論文 参考訳(メタデータ) (2024-08-08T04:05:50Z) - Policy Gradient with Active Importance Sampling [55.112959067035916]
政策勾配法(PG法)はISの利点を大いに生かし、以前に収集したサンプルを効果的に再利用することができる。
しかし、ISは歴史的サンプルを再重み付けするための受動的ツールとしてRLに採用されている。
我々は、政策勾配のばらつきを減らすために、サンプルを収集する最良の行動ポリシーを模索する。
論文 参考訳(メタデータ) (2024-05-09T09:08:09Z) - Theoretical guarantees on the best-of-n alignment policy [110.21094183592358]
基本方針と最良$n$ポリシーのKL分散は、$log (n) - (n-1)/n.$と等しいことを示す。
KLの発散に対する新しい推定器を提案し、いくつかの例を通して厳密な近似を与えることを実証的に示す。
論文 参考訳(メタデータ) (2024-01-03T18:39:13Z) - Efficiently Escaping Saddle Points for Non-Convex Policy Optimization [40.0986936439803]
政策勾配(PG)は、拡張性と優れた性能のために強化学習に広く用いられている。
本稿では,ヘッセンベクトル積 (HVP) の形で二階情報を用いた分散還元二階法を提案し,サンプルの複雑さを$tildeO(epsilon-3)$とする近似二階定常点 (SOSP) に収束する。
論文 参考訳(メタデータ) (2023-11-15T12:36:45Z) - Asymptotics for The $k$-means [0.6091702876917281]
k$-meansは統計学と計算機科学において最も重要な教師なし学習手法の1つである。
提案したクラスタリング整合性は,クラスタリング手法の以前の基準整合性よりも適切である。
提案した$k$-means法はクラスタリングエラー率を低くし,小さなクラスタやアウトレイアに対してより堅牢であることがわかった。
論文 参考訳(メタデータ) (2022-11-18T03:36:58Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Nystr\"om Kernel Mean Embeddings [92.10208929236826]
Nystr"om法に基づく効率的な近似手法を提案する。
サブサンプルサイズの条件は標準の$n-1/2$レートを得るのに十分である。
本稿では,この結果の最大誤差と二次規則の近似への応用について論じる。
論文 参考訳(メタデータ) (2022-01-31T08:26:06Z) - Uniform Concentration Bounds toward a Unified Framework for Robust
Clustering [21.789311405437573]
センターベースのクラスタリングの最近の進歩は、ロイドの有名な$k$-meansアルゴリズムの欠点によって改善され続けている。
様々な手法は、ローカル・ミニマ(英語版)の貧弱さ、異常値に対する感度、ユークリッドの対応に適さないデータに対処しようとする。
本稿では,一般的な相似性尺度に基づく中心クラスタリングのための密結合型ロバストフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T03:43:44Z) - Optimal Off-Policy Evaluation from Multiple Logging Policies [77.62012545592233]
我々は,複数のロギングポリシからオフ政治評価を行い,それぞれが一定のサイズ,すなわち階層化サンプリングのデータセットを生成する。
複数ロガーのOPE推定器は,任意のインスタンス,すなわち効率のよいインスタンスに対して最小分散である。
論文 参考訳(メタデータ) (2020-10-21T13:43:48Z) - Multi-label Contrastive Predictive Coding [125.03510235962095]
差分相互情報(MI)推定器は、コントラスト予測符号化(CPC)のような教師なし表現学習法で広く利用されている。
本稿では,複数の正のサンプルを同時に同定する必要がある多ラベル分類問題に基づく新しい推定器を提案する。
同一量の負のサンプルを用いて複数ラベルのCPCが$log m$boundを超えることができる一方で、相互情報の有意な下限であることを示す。
論文 参考訳(メタデータ) (2020-07-20T02:46:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。