論文の概要: Clustering and Classification with Non-Existence Attributes: A Sentenced
Discrepancy Measure Based Technique
- arxiv url: http://arxiv.org/abs/2002.10411v1
- Date: Mon, 24 Feb 2020 17:56:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 03:21:21.867156
- Title: Clustering and Classification with Non-Existence Attributes: A Sentenced
Discrepancy Measure Based Technique
- Title(参考訳): 非共存属性によるクラスタリングと分類:受刑不一致尺度に基づく手法
- Authors: Y. A. Joarder, Emran Hossain and Al Faisal Mahmud
- Abstract要約: クラスタリングアプローチは、計算や限界化といった技術による事前処理がなければ、そのようなデータに直接適用することはできない。
我々は、AWPD(Attribute Weighted Penalty Based Discrepancy)と呼ばれるセンテンシブ・ディフレナンシ・尺度を用いて、この欠点を克服した。
本手法は,非存在属性を持つデータセットに本手法を直接適用し,非存在属性を最適精度と最小コストで検出する手法を確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For some or all of the data instances a number of independent-world
clustering issues suffer from incomplete data characterization due to losing or
absent attributes. Typical clustering approaches cannot be applied directly to
such data unless pre-processing by techniques like imputation or
marginalization. We have overcome this drawback by utilizing a Sentenced
Discrepancy Measure which we refer to as the Attribute Weighted Penalty based
Discrepancy (AWPD). Using the AWPD measure, we modified the K-MEANS++ and
Scalable K-MEANS++ for clustering algorithm and k Nearest Neighbor (kNN) for
classification so as to make them directly applicable to datasets with
non-existence attributes. We have presented a detailed theoretical analysis
which shows that the new AWPD based K-MEANS++, Scalable K-MEANS++ and kNN
algorithm merge into a local prime among the number of iterations is finite. We
have reported in depth experiments on numerous benchmark datasets for various
forms of Non-Existence showing that the projected clustering and classification
techniques usually show better results in comparison to some of the renowned
imputation methods that are generally used to process such insufficient data.
This technique is designed to trace invaluable data to: directly apply our
method on the datasets which have Non-Existence attributes and establish a
method for detecting unstructured Non-Existence attributes with the best
accuracy rate and minimum cost.
- Abstract(参考訳): データインスタンスの一部あるいはすべてについて、独立世界のクラスタリングの問題の多くは、属性の喪失や欠落による不完全なデータ特徴づけに悩まされている。
典型的なクラスタリングアプローチは、計算や限界化といったテクニックによる事前処理がなければ、そのようなデータに直接適用することはできない。
我々はこの欠点を,AWPD(Attribute Weighted Penalty Based Discrepancy)と呼ばれるセンテンシブ・ディフレナンシ・尺度(Sentenced Discrepancy Measure)を用いて克服した。
AWPD尺度を用いて,クラスタリングアルゴリズムにK-MEANS++,クラスタリングアルゴリズムにK-MEANS++,分類にk Nearest Neighbor(kNN)を改良し,非存在属性を持つデータセットに直接適用できるようにした。
本稿では,新しいawpdベースのk-means++,スケーラブルなk-means++,knnアルゴリズムが反復数の中で局所素数にマージされることを示す,詳細な理論的解析を行った。
我々は, 様々な非共存形態のベンチマークデータセットについて詳細な実験を行い, 予測されたクラスタリングと分類手法が, 一般に不十分なデータを処理するために使用される有名なインプテーション手法に比べ, 良好な結果を示すことを報告した。
既存の属性を持たないデータセットに本手法を直接適用し、最適な精度と最小コストで非構造化の属性を検出する方法を確立します。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - K-Means Clustering With Incomplete Data with the Use of Mahalanobis Distances [0.0]
我々は従来のユークリッド距離の代わりにマハラノビス距離を組み込む統一K平均アルゴリズムを開発した。
我々のアルゴリズムはスタンドアローンの計算とK平均の両方を一貫して上回ることを示す。
これらの結果は、IRISデータセットと楕円型クラスタでランダムに生成されたデータの両方にわたって保持される。
論文 参考訳(メタデータ) (2024-10-31T00:05:09Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Robust and Automatic Data Clustering: Dirichlet Process meets
Median-of-Means [18.3248037914529]
本稿では,モデルに基づく手法とセントロイド方式の原理を統合することにより,効率的かつ自動的なクラスタリング手法を提案する。
クラスタリング誤差の上限に関する統計的保証は,既存のクラスタリングアルゴリズムよりも提案手法の利点を示唆している。
論文 参考訳(メタデータ) (2023-11-26T19:01:15Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - Robust Trimmed k-means [70.88503833248159]
本稿では,外乱点とクラスタポイントを同時に識別するRobust Trimmed k-means (RTKM)を提案する。
RTKMは他の方法と競合することを示す。
論文 参考訳(メタデータ) (2021-08-16T15:49:40Z) - Doing Great at Estimating CATE? On the Neglected Assumptions in
Benchmark Comparisons of Treatment Effect Estimators [91.3755431537592]
もっとも単純な設定であっても、無知性仮定に基づく推定は誤解を招く可能性があることを示す。
異種処理効果評価のための機械学習ベンチマークデータセットを2つ検討した。
ベンチマークデータセットの固有の特性が、他のものよりもいくつかのアルゴリズムを好んでいる点を強調します。
論文 参考訳(メタデータ) (2021-07-28T13:21:27Z) - Self-Trained One-class Classification for Unsupervised Anomaly Detection [56.35424872736276]
異常検出(AD)は、製造から医療まで、さまざまな分野に応用されている。
本研究は、トレーニングデータ全体がラベル付けされておらず、正規サンプルと異常サンプルの両方を含む可能性のある、教師なしAD問題に焦点を当てる。
この問題に対処するため,データリファインメントによる堅牢な一級分類フレームワークを構築した。
本手法は6.3AUCと12.5AUCの平均精度で最先端の1クラス分類法より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T01:36:08Z) - Too Much Information Kills Information: A Clustering Perspective [6.375668163098171]
分散に基づくk-クラスタリングタスクに対して,k-平均クラスタリング(k-means clustering)が広く知られていることを含む,単純かつ斬新なアプローチを提案する。
提案手法は、与えられたデータセットからサンプリングサブセットを選択し、サブセット内のデータ情報のみに基づいて決定する。
ある仮定では、結果のクラスタリングは、高い確率で分散に基づく目的の最適度を推定するのに十分である。
論文 参考訳(メタデータ) (2020-09-16T01:54:26Z) - A semi-supervised sparse K-Means algorithm [3.04585143845864]
クラスタリングに必要な機能のサブグループを検出するために、教師なしスパースクラスタリング手法を用いることができる。
半教師付き手法では、ラベル付きデータを使用して制約を作成し、クラスタリングソリューションを強化することができる。
提案アルゴリズムは,他の半教師付きアルゴリズムの高性能性を保ち,また,情報的特徴から情報的特徴を識別する能力も保持していることを示す。
論文 参考訳(メタデータ) (2020-03-16T02:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。