論文の概要: Subspace Clustering in Wavelet Packets Domain
- arxiv url: http://arxiv.org/abs/2406.03819v1
- Date: Thu, 6 Jun 2024 07:49:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 15:59:34.051975
- Title: Subspace Clustering in Wavelet Packets Domain
- Title(参考訳): Wavelet Packets ドメインにおけるサブスペースクラスタリング
- Authors: Ivica Kopriva, Damir Sersic,
- Abstract要約: サブスペースクラスタリング(SC)アルゴリズムは、サブスペースモデルを用いて、サブスペースが描画されるサブスペースに応じてデータポイントをクラスタリングする。
サブスペースの分離性とノイズに対する堅牢性を改善するために,ウェーブレットパケット(WP)ベースの変換領域サブスペースクラスタリングを提案する。
- 参考スコア(独自算出の注目度): 1.3812010983144802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Subspace clustering (SC) algorithms utilize the union of subspaces model to cluster data points according to the subspaces from which they are drawn. To better address separability of subspaces and robustness to noise we propose a wavelet packet (WP) based transform domain subspace clustering. Depending on the number of resolution levels, WP yields several representations instantiated in terms of subbands. The first approach combines original and subband data into one complementary multi-view representation. Afterward, we formulate joint representation learning as a low-rank MERA tensor network approximation problem. That is motivated by the strong representation power of the MERA network to capture complex intra/inter-view dependencies in corresponding self-representation tensor. In the second approach, we use a self-stopping computationally efficient method to select the subband with the smallest clustering error on the validation set. When existing SC algorithms are applied to the chosen subband, their performance is expected to improve. Consequently, both approaches enable the re-use of SC algorithms developed so far. Improved clustering performance is due to the dual nature of subbands as representations and filters, which is essential for noise suppression. We exemplify the proposed WP domain approach to SC on the MERA tensor network and eight other well-known linear SC algorithms using six well-known image datasets representing faces, digits, and objects. Although WP domain-based SC is a linear method, it achieved clustering performance comparable with some best deep SC algorithms and outperformed many other deep SC algorithms by a significant margin. That is in particular case for the WP MERA SC algorithm. On the COIL100 dataset, it achieves an accuracy of 87.45% and outperforms the best deep SC competitor in the amount of 14.75%.
- Abstract(参考訳): サブスペースクラスタリング(SC)アルゴリズムは、サブスペースモデルを用いて、サブスペースが描画されるサブスペースに応じてデータポイントをクラスタリングする。
サブスペースの分離性とノイズに対する堅牢性を改善するために,ウェーブレットパケット(WP)ベースの変換領域サブスペースクラスタリングを提案する。
解像度レベルの数によって、WPはサブバンドの点でインスタンス化されたいくつかの表現を生成する。
最初のアプローチでは、オリジナルとサブバンドのデータを1つの補完的なマルチビュー表現に結合する。
その後、低ランクMERAテンソルネットワーク近似問題として共同表現学習を定式化する。
これはMERAネットワークの強い表現力によって動機付けられ、対応する自己表現テンソルにおける複雑なビュー内およびビュー内依存関係をキャプチャする。
第2のアプローチでは、検証セット上で最小のクラスタリング誤差を持つサブバンドを選択するために、自己ストッピング計算効率のよい手法を用いる。
選択したサブバンドに既存のSCアルゴリズムを適用すると、その性能が向上することが期待される。
その結果,これまでに開発されたSCアルゴリズムの再利用が可能となった。
クラスタリング性能の向上は、ノイズ抑制に不可欠な表現とフィルタとしてサブバンドの二重性に起因する。
我々は、顔、数字、オブジェクトを表す6つのよく知られた画像データセットを用いて、MERAテンソルネットワーク上のSCに対するWPドメインアプローチと、他の8つのよく知られた線形SCアルゴリズムを例示する。
WPドメインベースのSCは線形手法であるが、クラスタリング性能はいくつかの優れた深層SCアルゴリズムに匹敵するものであり、多くの深部SCアルゴリズムよりも大幅に優れていた。
WP MERA SCアルゴリズムでは特にそうである。
COIL100データセットでは、87.45%の精度を達成し、14.75%で最高の深層SC競合より優れている。
関連論文リスト
- Interpretable label-free self-guided subspace clustering [0.0]
多数部分空間クラスタリング(SC)アルゴリズムは1つ以上のハイパーパラメータに依存しており、高いクラスタリング性能を達成するためにはSCアルゴリズムを慎重に調整する必要がある。
我々は,精度 (ACC) や正規化相互情報 (NMI) などのクラスタリング品質指標を用いたラベル非依存HPOの新しい手法を提案する。
本手法は,複数のシングルビューおよびマルチビューSCアルゴリズムを用いて,達成された性能を,桁,顔,オブジェクトを表す6つのデータセットで比較する。
論文 参考訳(メタデータ) (2024-11-26T10:29:09Z) - MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - Superpixel Graph Contrastive Clustering with Semantic-Invariant
Augmentations for Hyperspectral Images [64.72242126879503]
ハイパースペクトル画像(HSI)クラスタリングは重要な課題だが難しい課題である。
まず3次元と2次元のハイブリッド畳み込みニューラルネットワークを用いてHSIの高次空間およびスペクトルの特徴を抽出する。
次に,超画素グラフの対比クラスタリングモデルを設計し,識別的超画素表現を学習する。
論文 参考訳(メタデータ) (2024-03-04T07:40:55Z) - Contrastive Multi-view Subspace Clustering of Hyperspectral Images based
on Graph Convolutional Networks [14.978666092012856]
サブスペースクラスタリングは、ハイパースペクトル画像のクラスタリングに有効なアプローチである。
本研究では,グラフ畳み込みネットワークに基づくHSIのマルチビューサブスペースクラスタリングを提案する。
提案手法は,HSIのクラスタリング精度を効果的に向上する。
論文 参考訳(メタデータ) (2023-12-11T02:22:10Z) - FLASC: A Flare-Sensitive Clustering Algorithm [0.0]
本稿では,クラスタ内の分岐を検知してサブポピュレーションを同定するアルゴリズムFLASCを提案する。
アルゴリズムの2つの変種が提示され、ノイズの堅牢性に対する計算コストが取引される。
両変種は計算コストの観点からHDBSCAN*と類似してスケールし,安定した出力を提供することを示す。
論文 参考訳(メタデータ) (2023-11-27T14:55:16Z) - High-fidelity Pseudo-labels for Boosting Weakly-Supervised Segmentation [17.804090651425955]
画像レベルの弱い教師付きセグメンテーション(WSSS)は、トレーニング中にセグメンテーションマスクを代理することで、通常膨大なデータアノテーションコストを削減する。
本研究は,GAPの代替となる重要サンプリングと特徴類似性損失という,CAMを改善するための2つの手法に基づく。
複数の独立二項問題の後部二項問題に基づいて両手法を再構成する。
パフォーマンスが向上し、より一般的なものになり、事実上あらゆるWSSSメソッドを増強できるアドオンメソッドが出来上がります。
論文 参考訳(メタデータ) (2023-04-05T17:43:57Z) - Geometrical Homogeneous Clustering for Image Data Reduction [2.290085549352983]
そこで本研究では,データセットサイズを削減するため,同種クラスタリングアルゴリズムという従来手法の新たなバリエーションを提案する。
我々は、MNIST、CIFAR10、Fashion-MNISTの3つのデータセットで4つの変種を実験した。
GHCIDRの精度は99.35%、81.10%、91.66%で、トレーニングデータの減少率は87.27%、32.34%、76.80%であった。
論文 参考訳(メタデータ) (2022-08-27T19:42:46Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Determinantal consensus clustering [77.34726150561087]
本稿では,クラスタリングアルゴリズムのランダム再起動における決定点プロセス (DPP) の利用を提案する。
DPPは部分集合内の中心点の多様性を好んでいる。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェースについて良好なカバレッジを得るために失敗することを示す。
論文 参考訳(メタデータ) (2021-02-07T23:48:24Z) - Overcomplete Deep Subspace Clustering Networks [80.16644725886968]
4つのベンチマークデータセットの実験結果から,クラスタリング誤差の観点から,DSCや他のクラスタリング手法に対する提案手法の有効性が示された。
また,本手法は,最高の性能を得るために事前学習を中止する点にDSCほど依存せず,騒音にも頑健である。
論文 参考訳(メタデータ) (2020-11-16T22:07:18Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。