論文の概要: Clustering and Classification with Non-Existence Attributes: A Sentenced
Discrepancy Measure Based Technique
- arxiv url: http://arxiv.org/abs/2002.10411v1
- Date: Mon, 24 Feb 2020 17:56:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 03:21:21.867156
- Title: Clustering and Classification with Non-Existence Attributes: A Sentenced
Discrepancy Measure Based Technique
- Title(参考訳): 非共存属性によるクラスタリングと分類:受刑不一致尺度に基づく手法
- Authors: Y. A. Joarder, Emran Hossain and Al Faisal Mahmud
- Abstract要約: クラスタリングアプローチは、計算や限界化といった技術による事前処理がなければ、そのようなデータに直接適用することはできない。
我々は、AWPD(Attribute Weighted Penalty Based Discrepancy)と呼ばれるセンテンシブ・ディフレナンシ・尺度を用いて、この欠点を克服した。
本手法は,非存在属性を持つデータセットに本手法を直接適用し,非存在属性を最適精度と最小コストで検出する手法を確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For some or all of the data instances a number of independent-world
clustering issues suffer from incomplete data characterization due to losing or
absent attributes. Typical clustering approaches cannot be applied directly to
such data unless pre-processing by techniques like imputation or
marginalization. We have overcome this drawback by utilizing a Sentenced
Discrepancy Measure which we refer to as the Attribute Weighted Penalty based
Discrepancy (AWPD). Using the AWPD measure, we modified the K-MEANS++ and
Scalable K-MEANS++ for clustering algorithm and k Nearest Neighbor (kNN) for
classification so as to make them directly applicable to datasets with
non-existence attributes. We have presented a detailed theoretical analysis
which shows that the new AWPD based K-MEANS++, Scalable K-MEANS++ and kNN
algorithm merge into a local prime among the number of iterations is finite. We
have reported in depth experiments on numerous benchmark datasets for various
forms of Non-Existence showing that the projected clustering and classification
techniques usually show better results in comparison to some of the renowned
imputation methods that are generally used to process such insufficient data.
This technique is designed to trace invaluable data to: directly apply our
method on the datasets which have Non-Existence attributes and establish a
method for detecting unstructured Non-Existence attributes with the best
accuracy rate and minimum cost.
- Abstract(参考訳): データインスタンスの一部あるいはすべてについて、独立世界のクラスタリングの問題の多くは、属性の喪失や欠落による不完全なデータ特徴づけに悩まされている。
典型的なクラスタリングアプローチは、計算や限界化といったテクニックによる事前処理がなければ、そのようなデータに直接適用することはできない。
我々はこの欠点を,AWPD(Attribute Weighted Penalty Based Discrepancy)と呼ばれるセンテンシブ・ディフレナンシ・尺度(Sentenced Discrepancy Measure)を用いて克服した。
AWPD尺度を用いて,クラスタリングアルゴリズムにK-MEANS++,クラスタリングアルゴリズムにK-MEANS++,分類にk Nearest Neighbor(kNN)を改良し,非存在属性を持つデータセットに直接適用できるようにした。
本稿では,新しいawpdベースのk-means++,スケーラブルなk-means++,knnアルゴリズムが反復数の中で局所素数にマージされることを示す,詳細な理論的解析を行った。
我々は, 様々な非共存形態のベンチマークデータセットについて詳細な実験を行い, 予測されたクラスタリングと分類手法が, 一般に不十分なデータを処理するために使用される有名なインプテーション手法に比べ, 良好な結果を示すことを報告した。
既存の属性を持たないデータセットに本手法を直接適用し、最適な精度と最小コストで非構造化の属性を検出する方法を確立します。
関連論文リスト
- Robust and Automatic Data Clustering: Dirichlet Process meets
Median-of-Means [18.3248037914529]
本稿では,モデルに基づく手法とセントロイド方式の原理を統合することにより,効率的かつ自動的なクラスタリング手法を提案する。
クラスタリング誤差の上限に関する統計的保証は,既存のクラスタリングアルゴリズムよりも提案手法の利点を示唆している。
論文 参考訳(メタデータ) (2023-11-26T19:01:15Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised
Learning [73.31528264881868]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Leveraging Ensembles and Self-Supervised Learning for Fully-Unsupervised
Person Re-Identification and Text Authorship Attribution [77.85461690214551]
完全ラベル付きデータからの学習は、Person Re-IdentificationやText Authorship Attributionなどのマルチメディアフォレスト問題において困難である。
近年の自己教師型学習法は,基礎となるクラスに意味的差異が有る場合に,完全ラベル付きデータを扱う際に有効であることが示されている。
本研究では,異なるクラスからのサンプルが顕著に多様性を持っていない場合でも,ラベルのないデータから学習できるようにすることにより,個人再認識とテキストオーサシップの属性に対処する戦略を提案する。
論文 参考訳(メタデータ) (2022-02-07T13:08:11Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - Robust Trimmed k-means [70.88503833248159]
本稿では,外乱点とクラスタポイントを同時に識別するRobust Trimmed k-means (RTKM)を提案する。
RTKMは他の方法と競合することを示す。
論文 参考訳(メタデータ) (2021-08-16T15:49:40Z) - Doing Great at Estimating CATE? On the Neglected Assumptions in
Benchmark Comparisons of Treatment Effect Estimators [91.3755431537592]
もっとも単純な設定であっても、無知性仮定に基づく推定は誤解を招く可能性があることを示す。
異種処理効果評価のための機械学習ベンチマークデータセットを2つ検討した。
ベンチマークデータセットの固有の特性が、他のものよりもいくつかのアルゴリズムを好んでいる点を強調します。
論文 参考訳(メタデータ) (2021-07-28T13:21:27Z) - Self-Trained One-class Classification for Unsupervised Anomaly Detection [56.35424872736276]
異常検出(AD)は、製造から医療まで、さまざまな分野に応用されている。
本研究は、トレーニングデータ全体がラベル付けされておらず、正規サンプルと異常サンプルの両方を含む可能性のある、教師なしAD問題に焦点を当てる。
この問題に対処するため,データリファインメントによる堅牢な一級分類フレームワークを構築した。
本手法は6.3AUCと12.5AUCの平均精度で最先端の1クラス分類法より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T01:36:08Z) - Too Much Information Kills Information: A Clustering Perspective [6.375668163098171]
分散に基づくk-クラスタリングタスクに対して,k-平均クラスタリング(k-means clustering)が広く知られていることを含む,単純かつ斬新なアプローチを提案する。
提案手法は、与えられたデータセットからサンプリングサブセットを選択し、サブセット内のデータ情報のみに基づいて決定する。
ある仮定では、結果のクラスタリングは、高い確率で分散に基づく目的の最適度を推定するのに十分である。
論文 参考訳(メタデータ) (2020-09-16T01:54:26Z) - Robust Self-Supervised Convolutional Neural Network for Subspace
Clustering and Classification [0.10152838128195464]
本稿では,自己管理型畳み込みサブスペースクラスタリングネットワーク(S2$ConvSCN)のロバストな定式化を提案する。
真の教師なしのトレーニング環境では、Robust $S2$ConvSCNは、4つのよく知られたデータセットで見られるデータと見えないデータの両方に対して、ベースラインバージョンをかなり上回っている。
論文 参考訳(メタデータ) (2020-04-03T16:07:58Z) - A semi-supervised sparse K-Means algorithm [3.04585143845864]
クラスタリングに必要な機能のサブグループを検出するために、教師なしスパースクラスタリング手法を用いることができる。
半教師付き手法では、ラベル付きデータを使用して制約を作成し、クラスタリングソリューションを強化することができる。
提案アルゴリズムは,他の半教師付きアルゴリズムの高性能性を保ち,また,情報的特徴から情報的特徴を識別する能力も保持していることを示す。
論文 参考訳(メタデータ) (2020-03-16T02:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。