論文の概要: Learning a Self-Expressive Network for Subspace Clustering
- arxiv url: http://arxiv.org/abs/2110.04318v1
- Date: Fri, 8 Oct 2021 18:06:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 15:53:27.082777
- Title: Learning a Self-Expressive Network for Subspace Clustering
- Title(参考訳): サブスペースクラスタリングのための自己表現型ネットワークの学習
- Authors: Shangzhi Zhang, Chong You, Ren\'e Vidal and Chun-Guang Li
- Abstract要約: 本稿では,データ表現の自己表現を学習するために,適切に設計されたニューラルネットワークを用いた,自己表現型ネットワーク(SENet)と呼ばれる,サブスペースクラスタリングのための新しいフレームワークを提案する。
私たちのSENetは、トレーニングデータに望ましい特性を持つ自己表現係数を学習するだけでなく、サンプル外のデータも処理します。
特に、SENetはMNIST、Fashion MNIST、Extended MNISTで高い競争力を発揮し、CIFAR-10で最先端のパフォーマンスを得る。
- 参考スコア(独自算出の注目度): 15.096251922264281
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: State-of-the-art subspace clustering methods are based on self-expressive
model, which represents each data point as a linear combination of other data
points. However, such methods are designed for a finite sample dataset and lack
the ability to generalize to out-of-sample data. Moreover, since the number of
self-expressive coefficients grows quadratically with the number of data
points, their ability to handle large-scale datasets is often limited. In this
paper, we propose a novel framework for subspace clustering, termed
Self-Expressive Network (SENet), which employs a properly designed neural
network to learn a self-expressive representation of the data. We show that our
SENet can not only learn the self-expressive coefficients with desired
properties on the training data, but also handle out-of-sample data. Besides,
we show that SENet can also be leveraged to perform subspace clustering on
large-scale datasets. Extensive experiments conducted on synthetic data and
real world benchmark data validate the effectiveness of the proposed method. In
particular, SENet yields highly competitive performance on MNIST, Fashion MNIST
and Extended MNIST and state-of-the-art performance on CIFAR-10. The code is
available at https://github.com/zhangsz1998/Self-Expressive-Network.
- Abstract(参考訳): 最先端のサブスペースクラスタリング手法は、各データポイントを他のデータポイントの線形結合として表現する自己表現モデルに基づいている。
しかし、そのような手法は有限サンプルデータセットのために設計されており、サンプル外データに一般化する能力に欠ける。
また、自己表現係数の数はデータ点数と二乗的に増加するため、大規模なデータセットを扱う能力は限られることが多い。
本稿では,自己表現型表現を学習するために,適切に設計されたニューラルネットワークを用いた,自己表現型ネットワーク(SENet)と呼ばれるサブスペースクラスタリングのための新しいフレームワークを提案する。
我々のSENetは、トレーニングデータに望ましい特性を持つ自己表現係数を学習できるだけでなく、サンプル外データも扱えることを示す。
さらに,大規模データセット上でサブスペースクラスタリングを行うために,senetも活用可能であることを示す。
合成データと実世界のベンチマークデータを用いた広範な実験により,提案手法の有効性が検証された。
特に、SENetはMNIST、Fashion MNIST、Extended MNISTで高い競争力を発揮し、CIFAR-10で最先端のパフォーマンスを得る。
コードはhttps://github.com/zhangsz1998/self-expressive-networkで入手できる。
関連論文リスト
- infoVerse: A Universal Framework for Dataset Characterization with
Multidimensional Meta-information [68.76707843019886]
infoVerseは、データセットの特徴付けのための普遍的なフレームワークである。
infoVerseは、様々なモデル駆動メタ情報を統合することで、データセットの多次元特性をキャプチャする。
実世界の3つのアプリケーション(データプルーニング、アクティブラーニング、データアノテーション)において、infoVerse空間で選択されたサンプルは、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-30T18:12:48Z) - What Can be Seen is What You Get: Structure Aware Point Cloud
Augmentation [0.966840768820136]
本稿では,データセットを人工的に多様化する新たなポイントクラウド拡張手法を提案する。
センサ中心の手法はライダーセンサーの機能とデータ構造を一致させる。
提案手法は,非常に小さなデータセットの使用,アノテーション時間,トレーニング時間,関連するコストの削減を可能にする。
論文 参考訳(メタデータ) (2022-06-20T09:10:59Z) - Infinite Recommendation Networks: A Data-Centric Approach [8.044430277912936]
Neural Tangent Kernelを活用して、無限大のニューラルネットワークをトレーニングし、無限大のボトルネック層を持つオートエンコーダであるinfty$-AEを考案します。
また、小型で高忠実なデータ要約を合成するためのDistill-CFを開発した。
我々は、最初のデータセットサイズの0.1%に満たない完全なデータセット上で、infty$-AEのパフォーマンスの96-105%を観察した。
論文 参考訳(メタデータ) (2022-06-03T00:34:13Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Dominant Set-based Active Learning for Text Classification and its
Application to Online Social Media [0.0]
本稿では,最小限のアノテーションコストで大規模未ラベルコーパスのトレーニングを行うための,プールベースのアクティブラーニング手法を提案する。
提案手法には調整すべきパラメータが一切ないため,データセットに依存しない。
本手法は,最先端のアクティブラーニング戦略と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2022-01-28T19:19:03Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Learning Self-Expression Metrics for Scalable and Inductive Subspace
Clustering [5.587290026368626]
サブスペースクラスタリングは、高次元データをクラスタリングするための最先端のアプローチとして確立されている。
本研究では,シアムニューラルネットワークアーキテクチャを用いて,サブスペース親和性関数を学習するための新しい距離学習手法を提案する。
我々のモデルは、パラメータの一定数とメモリフットプリントの恩恵を受けており、かなり大きなデータセットにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-27T15:40:12Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Federated Visual Classification with Real-World Data Distribution [9.564468846277366]
我々は,FedAvg(Federated Averaging)アルゴリズムのベンチマークを用いて,実世界のデータ分布が分散学習に与える影響を特徴付ける。
種別とランドマーク分類のための2つの新しい大規模データセットを導入し,ユーザ毎のデータ分割を現実的に行う。
また、2つの新しいアルゴリズム(FedVC、FedIR)も開発しています。
論文 参考訳(メタデータ) (2020-03-18T07:55:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。