論文の概要: Geometrical Homogeneous Clustering for Image Data Reduction
- arxiv url: http://arxiv.org/abs/2208.13079v1
- Date: Sat, 27 Aug 2022 19:42:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:16:13.041356
- Title: Geometrical Homogeneous Clustering for Image Data Reduction
- Title(参考訳): 画像データ削減のための幾何学的均質クラスタリング
- Authors: Shril Mody, Janvi Thakkar, Devvrat Joshi, Siddharth Soni, Rohan Patil,
Nipun Batra
- Abstract要約: そこで本研究では,データセットサイズを削減するため,同種クラスタリングアルゴリズムという従来手法の新たなバリエーションを提案する。
我々は、MNIST、CIFAR10、Fashion-MNISTの3つのデータセットで4つの変種を実験した。
GHCIDRの精度は99.35%、81.10%、91.66%で、トレーニングデータの減少率は87.27%、32.34%、76.80%であった。
- 参考スコア(独自算出の注目度): 2.290085549352983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present novel variations of an earlier approach called
homogeneous clustering algorithm for reducing dataset size. The intuition
behind the approaches proposed in this paper is to partition the dataset into
homogeneous clusters and select some images which contribute significantly to
the accuracy. Selected images are the proper subset of the training data and
thus are human-readable. We propose four variations upon the baseline
algorithm-RHC. The intuition behind the first approach, RHCKON, is that the
boundary points contribute significantly towards the representation of
clusters. It involves selecting k farthest and one nearest neighbour of the
centroid of the clusters. In the following two approaches (KONCW and CWKC), we
introduce the concept of cluster weights. They are based on the fact that
larger clusters contribute more than smaller sized clusters. The final
variation is GHCIDR which selects points based on the geometrical aspect of
data distribution. We performed the experiments on two deep learning models-
Fully Connected Networks (FCN) and VGG1. We experimented with the four variants
on three datasets- MNIST, CIFAR10, and Fashion-MNIST. We found that GHCIDR gave
the best accuracy of 99.35%, 81.10%, and 91.66% and a training data reduction
of 87.27%, 32.34%, and 76.80% on MNIST, CIFAR10, and Fashion-MNIST
respectively.
- Abstract(参考訳): 本稿では,データセットサイズを削減すべく,均質クラスタリングアルゴリズムと呼ばれる従来手法の新しいバリエーションを提案する。
提案手法の背景にある直感は,データセットを均一なクラスタに分割し,精度に大きく寄与する画像を選択することである。
選択された画像はトレーニングデータの適切なサブセットであり、人間が読める。
本稿では,ベースラインアルゴリズム-RHCの4つのバリエーションを提案する。
最初のアプローチであるRHCKONの背景にある直観は、境界点がクラスターの表現に大きく貢献するということである。
k個の最遠点と、星団の遠近点の1つを選択することを含む。
以下の2つのアプローチ (KONCW と CWKC) において、クラスタ重み付けの概念を導入する。
これらは、より大きなクラスタがより小さなクラスタに貢献するという事実に基づいている。
最後のバリエーションはGHCIDRで、データ分布の幾何学的側面に基づいて点を選択する。
我々は2つのディープラーニングモデルFully Connected Networks(FCN)とVGG1の実験を行った。
我々は、MNIST、CIFAR10、Fashion-MNISTの3つのデータセットで4つの変種を実験した。
ghcidrの精度は99.35%,81.10%,91.66%であり,トレーニングデータでは87.27%,32.34%,76.80%がmnist,cifar10,ファッションmnistであった。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Distributed Solution of the Inverse Rig Problem in Blendshape Facial
Animation [0.0]
リグのインバージョンは、アバターの現実的で魅力的なパフォーマンスを可能にするため、顔アニメーションの中心である。
より高速なソリューションへのアプローチとして、顔の空間的性質を活用するクラスタリングがある。
本稿では、重なり合うコンポーネントのより確実な推定を得るために、クラスタ結合を伴ってさらに一歩進める。
論文 参考訳(メタデータ) (2023-03-11T10:34:07Z) - An enhanced method of initial cluster center selection for K-means
algorithm [0.0]
K-meansアルゴリズムの初期クラスタ選択を改善するための新しい手法を提案する。
Convex Hullアルゴリズムは、最初の2つのセントロイドの計算を容易にし、残りの2つは、以前選択された中心からの距離に応じて選択される。
We obtained only 7.33%, 7.90%, and 0% clustering error in Iris, Letter, and Ruspini data。
論文 参考訳(メタデータ) (2022-10-18T00:58:50Z) - Merged-GHCIDR: Geometrical Approach to Reduce Image Data [2.290085549352983]
巨大なデータセット上でニューラルネットワークをトレーニングすることは、困難で時間を要するタスクになっている。
我々は、データセットサイズを減らすため、同種クラスタリングによる削減という、以前のアプローチの新たなバリエーションを示す。
本稿では,GHCIDR(Geometrical Homogeneous Clustering for Image Data Reduction)とMerged-GHCIDR(Merged-GHCIDR)の2つのバリエーションを提案する。
論文 参考訳(メタデータ) (2022-09-06T16:03:15Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Spectral Clustering with Smooth Tiny Clusters [14.483043753721256]
本稿では,データのスムーズさを初めて考慮した新しいクラスタリングアルゴリズムを提案する。
私たちのキーとなるアイデアは、スムーズなグラフを構成する小さなクラスタをクラスタ化することです。
本稿では,マルチスケールな状況に着目するが,データのスムーズさの考え方はどのクラスタリングアルゴリズムにも確実に拡張できる。
論文 参考訳(メタデータ) (2020-09-10T05:21:20Z) - Improving k-Means Clustering Performance with Disentangled Internal
Representations [0.0]
本稿では,オートエンコーダの学習遅延符号表現の絡み合いを最適化する,シンプルなアプローチを提案する。
提案手法を用いて,MNISTデータセットでは96.2%,Fashion-MNISTデータセットでは85.6%,EMNIST Balancedデータセットでは79.2%,ベースラインモデルでは79.2%であった。
論文 参考訳(メタデータ) (2020-06-05T11:32:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。