論文の概要: Scalable unsupervised feature selection via weight stability
- arxiv url: http://arxiv.org/abs/2506.06114v1
- Date: Fri, 06 Jun 2025 14:24:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.50965
- Title: Scalable unsupervised feature selection via weight stability
- Title(参考訳): 重み安定性によるスケーラブルな教師なし特徴選択
- Authors: Xudong Zhang, Renato Cordeiro de Amorim,
- Abstract要約: アンサンプの特徴選択は、高次元データのクラスタリング性能向上に不可欠である。
我々は、ミンコフスキー重み付き$k$-means++という、ミンコフスキー重み付き$k$-means++の新しい初期化戦略を紹介した。
我々は,安定かつ情報的特徴を特定するために,ミンコフスキー指数の多種多様な特徴量を集約するFS-MWK++と,サブ教師付きクラスタリングに基づくスケーラブルなバリエーションであるSFS-MWK++という2つの新しい特徴選択アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 4.839191514733483
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Unsupervised feature selection is critical for improving clustering performance in high-dimensional data, where irrelevant features can obscure meaningful structure. In this work, we introduce the Minkowski weighted $k$-means++, a novel initialisation strategy for the Minkowski Weighted $k$-means. Our initialisation selects centroids probabilistically using feature relevance estimates derived from the data itself. Building on this, we propose two new feature selection algorithms, FS-MWK++, which aggregates feature weights across a range of Minkowski exponents to identify stable and informative features, and SFS-MWK++, a scalable variant based on subsampling. We support our approach with a theoretical guarantee under mild assumptions and extensive experiments showing that our methods consistently outperform existing alternatives.
- Abstract(参考訳): 教師なしの特徴選択は、無関係な特徴が意味不明な構造を持つ高次元データにおけるクラスタリング性能を改善するために重要である。
本稿では、Minkowski Weighted $k$-means++の新たな初期化戦略である、Minkowski Weighted $k$-means++を紹介した。
我々の初期化はデータ自体から得られた特徴関連性推定を用いて確率的にセントロイドを選択する。
そこで我々は,安定かつ情報的特徴を識別するために,さまざまなMinkowski指数を集約するFS-MWK++と,サブサンプリングに基づくスケーラブルな変種であるSFS-MWK++という,2つの新機能選択アルゴリズムを提案する。
我々は,提案手法が既存の方法よりも常に優れていることを示す,軽微な仮定の下での理論的保証と広範な実験により,我々のアプローチを支援している。
関連論文リスト
- Random Normed k-Means: A Paradigm-Shift in Clustering within Probabilistic Metric Spaces [0.7864304771129751]
確率的距離空間内で機能する文献において、最初のk-平均変種を導入する。
確率論的視点を採用することで,本手法は新たなパラダイムを導入するだけでなく,厳密な理論的枠組みも確立する。
提案したランダムノルムk平均(RNKM)アルゴリズムは,非線形に分離可能な構造を識別する顕著な能力を示す。
論文 参考訳(メタデータ) (2025-04-04T20:48:43Z) - K-means Derived Unsupervised Feature Selection using Improved ADMM [25.145984747164256]
本稿では,K-means Derived Unsupervised Feature Selection (K-means UFS) という新しい手法を提案する。
既存のスペクトル分析に基づく非教師付き特徴選択法とは異なり、K平均の目的を用いて特徴を選択する。
実際のデータセットでの実験では、クラスタリングの機能の選択において、我々のK平均UFSはベースラインよりも効果的であることが示されています。
論文 参考訳(メタデータ) (2024-11-19T18:05:02Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Feature Selection Using Reinforcement Learning [0.0]
特定の関心の予測因子を特徴付けるために使用できる変数や特徴の空間は指数関数的に増大し続けている。
モデルのバイアスを損なうことなく分散を最小化する最も特徴的な特徴を特定することは、マシンラーニングモデルのトレーニングを成功させる上で非常に重要です。
論文 参考訳(メタデータ) (2021-01-23T09:24:37Z) - Kernel k-Means, By All Means: Algorithms and Strong Consistency [21.013169939337583]
Kernel $k$クラスタリングは、非線形データの教師なし学習のための強力なツールである。
本稿では,最適化された局所解に対処するための一般的な手法を応用した結果を一般化する。
我々のアルゴリズムは、この非線形分離問題をよりよく解くために、Magricalization-minimization (MM) を利用している。
論文 参考訳(メタデータ) (2020-11-12T16:07:18Z) - Distributionally Robust Weighted $k$-Nearest Neighbors [21.537952410507483]
少数のサンプルから堅牢な分類器を学ぶことは、マシンラーニングにおける重要な課題である。
本稿では, 重み付き$k$-アネレスト近傍のミニマックス分布に頑健な定式化について検討する。
我々は,この関数最適化問題を効率的に解くアルゴリズムである textttDr.k-NN を開発した。
論文 参考訳(メタデータ) (2020-06-07T00:34:33Z) - Stable and consistent density-based clustering via multiparameter
persistence [77.34726150561087]
トポロジカルデータ解析による次数-リップス構成について考察する。
我々は,入力データの摂動に対する安定性を,通信間距離を用いて解析する。
私たちはこれらのメソッドを、Persistableと呼ばれる密度ベースのクラスタリングのためのパイプラインに統合します。
論文 参考訳(メタデータ) (2020-05-18T19:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。