論文の概要: Nonlinear subspace clustering by functional link neural networks
- arxiv url: http://arxiv.org/abs/2402.02051v1
- Date: Sat, 3 Feb 2024 06:01:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 22:25:12.338962
- Title: Nonlinear subspace clustering by functional link neural networks
- Title(参考訳): 関数型リンクニューラルネットワークによる非線形部分空間クラスタリング
- Authors: Long Shi, Lei Cao, Zhongpu Chen, Badong Chen, Yu Zhao
- Abstract要約: フィードフォワードニューラルネットワークに基づくサブスペースクラスタリングは、いくつかの高度なサブスペースクラスタリングアルゴリズムよりも優れたクラスタリング精度を提供することを示した。
我々は,データサンプルを非線形領域に変換するために,関数型リンクニューラルネットワークを用いる。
本稿では,線形サブスペースクラスタリング手法と関数型リンクニューラルネットワークサブスペースクラスタリング手法を組み合わせた凸結合サブスペースクラスタリング手法を提案する。
- 参考スコア(独自算出の注目度): 22.49976785146764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nonlinear subspace clustering based on a feed-forward neural network has been
demonstrated to provide better clustering accuracy than some advanced subspace
clustering algorithms. While this approach demonstrates impressive outcomes, it
involves a balance between effectiveness and computational cost. In this study,
we employ a functional link neural network to transform data samples into a
nonlinear domain. Subsequently, we acquire a self-representation matrix through
a learning mechanism that builds upon the mapped samples. As the functional
link neural network is a single-layer neural network, our proposed method
achieves high computational efficiency while ensuring desirable clustering
performance. By incorporating the local similarity regularization to enhance
the grouping effect, our proposed method further improves the quality of the
clustering results. Additionally, we introduce a convex combination subspace
clustering scheme, which combining a linear subspace clustering method with the
functional link neural network subspace clustering approach. This combination
approach allows for a dynamic balance between linear and nonlinear
representations. Extensive experiments confirm the advancement of our methods.
The source code will be released on https://lshi91.github.io/ soon.
- Abstract(参考訳): フィードフォワードニューラルネットワークに基づく非線形サブスペースクラスタリングは、いくつかの高度なサブスペースクラスタリングアルゴリズムよりも優れたクラスタリング精度を提供することを示した。
このアプローチは印象的な結果を示すが、有効性と計算コストのバランスが伴う。
本研究では,関数型リンクニューラルネットワークを用いて,データサンプルを非線形領域に変換する。
その後,マップされたサンプルを基に構築した学習機構を通じて自己表現行列を得る。
関数型リンクニューラルネットワークは単層ニューラルネットワークであるため,提案手法はクラスタリング性能を確保しつつ高い計算効率を実現する。
グループ化効果を高めるために局所的類似性正規化を組み込むことにより,提案手法はクラスタリング結果の質をさらに向上させる。
さらに,線形部分空間クラスタリング法と関数型リンクニューラルネットワーク部分空間クラスタリング法を組み合わせた凸結合部分空間クラスタリングスキームを提案する。
この組み合わせアプローチは線型表現と非線形表現の動的バランスを可能にする。
広範な実験によって我々の方法の進歩が確認された。
ソースコードはhttps://lshi91.github.io/でリリースされる。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Revisiting Gaussian Neurons for Online Clustering with Unknown Number of
Clusters [0.0]
参照するクラスタ数の最大限のオンラインクラスタリングを行う、新しいローカルラーニングルールが提示される。
実験結果は,学習パラメータの安定性を多数のトレーニングサンプルで実証した。
論文 参考訳(メタデータ) (2022-05-02T14:01:40Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Hyperdimensional Computing for Efficient Distributed Classification with
Randomized Neural Networks [5.942847925681103]
本研究では,データを中央に保存することも共有することもできない状況下で利用できる分散分類について検討する。
ローカルな分類器を他のエージェントと共有する場合に、ロッキーな圧縮アプローチを適用することにより、分散分類のためのより効率的な解を提案する。
論文 参考訳(メタデータ) (2021-06-02T01:33:56Z) - Partitioning sparse deep neural networks for scalable training and
inference [8.282177703075453]
最先端のディープニューラルネットワーク(DNN)には、計算とデータ管理の大幅な要件がある。
スパシフィケーション法とプルーニング法は,DNNの大量の接続を除去するのに有効であることが示されている。
その結果得られたスパースネットワークは、ディープラーニングにおけるトレーニングと推論の計算効率をさらに向上するためのユニークな課題を提示する。
論文 参考訳(メタデータ) (2021-04-23T20:05:52Z) - Meta-learning representations for clustering with infinite Gaussian
mixture models [39.56814839510978]
クラスタリング性能を向上させるためにニューラルネットワークを訓練するメタラーニング手法を提案する。
提案手法は,非ラベルデータとは異なるラベルデータを用いた知識メタ学習を用いて,未ラベルデータをクラスタ化することができる。
論文 参考訳(メタデータ) (2021-03-01T02:05:31Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - NN-EVCLUS: Neural Network-based Evidential Clustering [6.713564212269253]
本稿では,NN-EVCLUSと呼ばれるニューラルネットワークに基づく明確なクラスタリングアルゴリズムを提案する。
属性ベクトルから質量関数への写像を学習し、より類似した入力がより低い競合度を持つ質量関数の出力にマッピングされるようにする。
ネットワークは、すべてのオブジェクトまたはいくつかのオブジェクトペアの相違点と相反点の差を最小限に抑えるように訓練されている。
論文 参考訳(メタデータ) (2020-09-27T09:05:41Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。