論文の概要: GBG++: A Fast and Stable Granular Ball Generation Method for
Classification
- arxiv url: http://arxiv.org/abs/2305.18450v2
- Date: Mon, 13 Nov 2023 15:09:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 21:40:58.055933
- Title: GBG++: A Fast and Stable Granular Ball Generation Method for
Classification
- Title(参考訳): GBG++: 分類のための高速で安定なグラニュラーボール生成方法
- Authors: Qin Xie, Qinghua Zhang, Shuyin Xia, Fan Zhao, Chengying Wu, Guoyin
Wang and Weiping Ding
- Abstract要約: グラニュラーボールコンピューティングは効率的で堅牢でスケーラブルな学習方法である。
既存のGBG法の安定性と効率をさらに改善する必要がある。
まず, 高速かつ安定なGBG (GBG++) 手法を提案する。
- 参考スコア(独自算出の注目度): 18.611701583873504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Granular ball computing (GBC), as an efficient, robust, and scalable learning
method, has become a popular research topic of granular computing. GBC includes
two stages: granular ball generation (GBG) and multi-granularity learning based
on the granular ball (GB). However, the stability and efficiency of existing
GBG methods need to be further improved due to their strong dependence on
$k$-means or $k$-division. In addition, GB-based classifiers only unilaterally
consider the GB's geometric characteristics to construct classification rules,
but the GB's quality is ignored. Therefore, in this paper, based on the
attention mechanism, a fast and stable GBG (GBG++) method is proposed first.
Specifically, the proposed GBG++ method only needs to calculate the distances
from the data-driven center to the undivided samples when splitting each GB
instead of randomly selecting the center and calculating the distances between
it and all samples. Moreover, an outlier detection method is introduced to
identify local outliers. Consequently, the GBG++ method can significantly
improve effectiveness, robustness, and efficiency while being absolutely
stable. Second, considering the influence of the sample size within the GB on
the GB's quality, based on the GBG++ method, an improved GB-based $k$-nearest
neighbors algorithm (GB$k$NN++) is presented, which can reduce
misclassification at the class boundary. Finally, the experimental results
indicate that the proposed method outperforms several existing GB-based
classifiers and classical machine learning classifiers on $24$ public benchmark
datasets.
- Abstract(参考訳): 粒度ボールコンピューティング(gbc)は、効率的で堅牢でスケーラブルな学習手法として、粒度計算の一般的な研究テーマとなっている。
GBCには、グラニュラーボール生成(GBG)とグラニュラーボール(GB)に基づく多粒度学習という2つの段階がある。
しかしながら、既存のGBG法の安定性と効率は、$k$-meansや$k$-divisionに強く依存するため、さらに改善する必要がある。
さらに、GBベースの分類器は、GBの幾何学的特徴を一方的に考慮して分類規則を構築するが、GBの品質は無視される。
そこで本研究では,注意機構に基づいて,高速かつ安定したGBG(GBG++)手法を提案する。
具体的には,データ駆動中心から未分割サンプルまでの距離を,各GBをランダムに選択する代わりに分割し,データ駆動中心と全サンプル間の距離を算出する必要がある。
さらに,局所的な外れ値を特定するために,外れ値検出手法を導入する。
その結果,GBG++法は絶対安定でありながら,有効性,堅牢性,効率性を著しく向上させることができる。
第2に、GB内のサンプルサイズがGBの品質に与える影響を考慮すると、GBG++法に基づいて、改善されたGBベースの$k$-nearest neighborsアルゴリズム(GB$k$NN++)が提示され、クラス境界における誤分類を減らすことができる。
最後に,提案手法は,既存のGBベース分類器と古典的機械学習分類器を2,4ドルのベンチマークデータセットで比較した。
関連論文リスト
- GLC++: Source-Free Universal Domain Adaptation through Global-Local Clustering and Contrastive Affinity Learning [84.54244771470012]
Source-Free Universal Domain Adaptation (SF-UniDA) は、共通カテゴリに属する「既知の」データを正確に分類することを目的としている。
本稿では,適応的な一対一のグローバルクラスタリングアルゴリズムを備えた新しいグローバル・ローカルクラスタリング(GLC)手法を提案する。
我々はGLCをGLC++に進化させ、対照的な親和性学習戦略を統合する。
論文 参考訳(メタデータ) (2024-03-21T13:57:45Z) - Boost clustering with Gaussian Boson Sampling: a full quantum approach [0.09437521840642138]
ガウスボソンサンプリング(GBS)に基づく新しいクラスタリング手法を提案する。
2つの有名な古典的クラスタリングアルゴリズムを用いて、我々のアプローチをベンチマークする。
その結果,提案手法は,選択した3つの指標のうち2つにおいて,従来の2つのアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-07-25T09:05:24Z) - GBMST: An Efficient Minimum Spanning Tree Clustering Based on
Granular-Ball Computing [78.92205914422925]
多粒度グラニュラバルと最小スパンニングツリー(MST)を組み合わせたクラスタリングアルゴリズムを提案する。
粒度が粗い粒状ボールを構築し,さらに粒状ボールとMSTを用いて「大規模優先度」に基づくクラスタリング手法を実装した。
いくつかのデータセットの実験結果は、アルゴリズムの威力を示している。
論文 参考訳(メタデータ) (2023-03-02T09:04:35Z) - Rethinking and Scaling Up Graph Contrastive Learning: An Extremely
Efficient Approach with Group Discrimination [87.07410882094966]
グラフコントラスト学習(GCL)は、グラフ表現学習(GRL)におけるラベル情報への依存度を緩和する
自己教師型GRLのための新しい学習パラダイム、すなわちグループ識別(GD)を導入する。
類似性計算の代わりに、GGDは単純なバイナリクロスエントロピー損失を持つ要約ノードインスタンスの2つのグループを直接識別する。
加えて、GGDは大規模データセット上でのGCL法と比較して、競争性能を得るために、はるかに少ないトレーニングエポックを必要とする。
論文 参考訳(メタデータ) (2022-06-03T12:32:47Z) - GBHT: Gradient Boosting Histogram Transform for Density Estimation [73.94900378709023]
textitGradient Boosting Histogram Transform (GBHT) と呼ばれる密度推定アルゴリズムを提案する。
そこで本研究では,高揚化がベース学習者の性能向上に寄与する理由を理論的に説明するための最初の試みを行う。
論文 参考訳(メタデータ) (2021-06-10T13:40:28Z) - Gradient Boosted Binary Histogram Ensemble for Large-scale Regression [60.16351608335641]
本研究では,2値ヒストグラム分割とアンサンブル学習に基づくテキストグラディエント2値ヒストグラムアンサンブル(GBBHE)と呼ばれる大規模回帰問題に対する勾配向上アルゴリズムを提案する。
実験では, 勾配向上回帰木 (GBRT) などの他の最先端アルゴリズムと比較して, GBBHEアルゴリズムは大規模データセット上での実行時間が少なく, 有望な性能を示す。
論文 参考訳(メタデータ) (2021-06-03T17:05:40Z) - Scalable Graph Neural Networks via Bidirectional Propagation [89.70835710988395]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータを学習するための新興分野である。
本稿では、特徴ベクトルとトレーニング/テストノードの両方から局所的な双方向伝搬プロセスを利用するスケーラブルなGNNであるGBPを提案する。
実証実験により、GBPは、トレーニング/テスト時間を大幅に減らして最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-10-29T08:55:33Z) - An ensemble of Density based Geometric One-Class Classifier and Genetic
Algorithm [10.67799545071671]
1つのクラス分類は、1つのクラスと外れ値のみからなるデータセットを考える。
より精巧な間隔生成法を用いた密度(1-HRD_d)に基づく1クラスハイパー矩形記述子
1-HRD_dを系統的に生成するための染色体構造と遺伝的演算子からなる遺伝的アルゴリズム(GA)。
論文 参考訳(メタデータ) (2020-10-02T04:22:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。