論文の概要: Merged-GHCIDR: Geometrical Approach to Reduce Image Data
- arxiv url: http://arxiv.org/abs/2209.02609v1
- Date: Tue, 6 Sep 2022 16:03:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:36:05.486891
- Title: Merged-GHCIDR: Geometrical Approach to Reduce Image Data
- Title(参考訳): Merged-GHCIDR:画像データ削減のための幾何学的アプローチ
- Authors: Devvrat Joshi, Janvi Thakkar, Siddharth Soni, Shril Mody, Rohan Patil,
Nipun Batra
- Abstract要約: 巨大なデータセット上でニューラルネットワークをトレーニングすることは、困難で時間を要するタスクになっている。
我々は、データセットサイズを減らすため、同種クラスタリングによる削減という、以前のアプローチの新たなバリエーションを示す。
本稿では,GHCIDR(Geometrical Homogeneous Clustering for Image Data Reduction)とMerged-GHCIDR(Merged-GHCIDR)の2つのバリエーションを提案する。
- 参考スコア(独自算出の注目度): 2.290085549352983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The computational resources required to train a model have been increasing
since the inception of deep networks. Training neural networks on massive
datasets have become a challenging and time-consuming task. So, there arises a
need to reduce the dataset without compromising the accuracy. In this paper, we
present novel variations of an earlier approach called reduction through
homogeneous clustering for reducing dataset size. The proposed methods are
based on the idea of partitioning the dataset into homogeneous clusters and
selecting images that contribute significantly to the accuracy. We propose two
variations: Geometrical Homogeneous Clustering for Image Data Reduction
(GHCIDR) and Merged-GHCIDR upon the baseline algorithm - Reduction through
Homogeneous Clustering (RHC) to achieve better accuracy and training time. The
intuition behind GHCIDR involves selecting data points by cluster weights and
geometrical distribution of the training set. Merged-GHCIDR involves merging
clusters having the same labels using complete linkage clustering. We used
three deep learning models- Fully Connected Networks (FCN), VGG1, and VGG16. We
experimented with the two variants on four datasets- MNIST, CIFAR10,
Fashion-MNIST, and Tiny-Imagenet. Merged-GHCIDR with the same percentage
reduction as RHC showed an increase of 2.8%, 8.9%, 7.6% and 3.5% accuracy on
MNIST, Fashion-MNIST, CIFAR10, and Tiny-Imagenet, respectively.
- Abstract(参考訳): モデルのトレーニングに必要な計算資源は、ディープネットワークの開始以来増加してきた。
巨大なデータセット上でニューラルネットワークをトレーニングすることは、困難で時間のかかる作業になっている。
そのため、精度を損なうことなくデータセットを減らす必要がある。
本稿では,同種クラスタリングによるデータセットサイズ削減という,従来手法の新たなバリエーションを提案する。
提案手法は,データセットを均質なクラスタに分割し,精度に大きく寄与する画像を選択するという考え方に基づいている。
本研究では,画像データ削減のための幾何学的均質クラスタリング(ghcidr)と,ベースラインアルゴリズムによるマージghcidr(merge-ghcidr)の2つのバリエーションを提案する。
ghcidrの背景にある直観は、クラスタ重みによるデータポイントの選択とトレーニングセットの幾何学的分布である。
Merged-GHCIDRは、完全なリンククラスタリングを使用して、同じラベルを持つクラスタをマージする。
我々は,fcn,vgg1,vgg16の3つのディープラーニングモデルを用いた。
我々はMNIST, CIFAR10, Fashion-MNIST, Tiny-Imagenetという4つのデータセットで2つの変種を実験した。
RHCと同じパーセンテージのマージGHCIDRは、MNIST、Fashion-MNIST、CIFAR10、Tiny-Imagenetでそれぞれ2.8%、8.9%、7.6%、および3.5%の精度を示した。
関連論文リスト
- DiTMoS: Delving into Diverse Tiny-Model Selection on Microcontrollers [34.282971510732736]
我々は、セレクタ分類器アーキテクチャを備えた新しいDNNトレーニングおよび推論フレームワークであるDiTMoSを紹介する。
弱いモデルの合成は高い多様性を示すことができ、それらの結合は精度の上限を大幅に高めることができる。
我々は,Nucleo STM32F767ZIボード上にDiTMoSをデプロイし,人間の活動認識,キーワードスポッティング,感情認識のための時系列データセットに基づいて評価する。
論文 参考訳(メタデータ) (2024-03-14T02:11:38Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Geometrical Homogeneous Clustering for Image Data Reduction [2.290085549352983]
そこで本研究では,データセットサイズを削減するため,同種クラスタリングアルゴリズムという従来手法の新たなバリエーションを提案する。
我々は、MNIST、CIFAR10、Fashion-MNISTの3つのデータセットで4つの変種を実験した。
GHCIDRの精度は99.35%、81.10%、91.66%で、トレーニングデータの減少率は87.27%、32.34%、76.80%であった。
論文 参考訳(メタデータ) (2022-08-27T19:42:46Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Interpretable Clustering on Dynamic Graphs with Recurrent Graph Neural
Networks [24.017988997693262]
ノードとノードのクラスタメンバーシップ間の接続が時間とともに変化する可能性がある動的グラフにおけるノードのクラスタリングの問題を検討する。
まず,ノード間の重み付き接続に基づいてノードをクラスタ化し,その重みが時間とともに一定速度で減少する,簡易な崩壊ベースのクラスタリングアルゴリズムを提案する。
本稿では,各クラスタの最適減衰率を特徴付け,真のクラスタのほぼ完全回復を実現するクラスタリング手法を提案する。
論文 参考訳(メタデータ) (2020-12-16T04:31:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。