論文の概要: Self-Representation Based Unsupervised Exemplar Selection in a Union of
Subspaces
- arxiv url: http://arxiv.org/abs/2006.04246v1
- Date: Sun, 7 Jun 2020 19:43:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 07:46:08.881999
- Title: Self-Representation Based Unsupervised Exemplar Selection in a Union of
Subspaces
- Title(参考訳): 部分空間の連合における自己表現に基づく非教師なし例選択
- Authors: Chong You, Chi Li, Daniel P. Robinson, Rene Vidal
- Abstract要約: 表現係数の $ell_1$ ノルムによって測定されたすべてのデータポイントを最もよく再構成する部分集合を探索する新しい指数選択モデルを提案する。
データセットが独立部分空間の和から引き出されるとき、我々の方法は各部分空間から十分な数の代表を選択できる。
また,不均衡なデータに対して頑健で,大規模データに対して効率の良い,模範的なサブスペースクラスタリング手法も開発している。
- 参考スコア(独自算出の注目度): 27.22427926657327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding a small set of representatives from an unlabeled dataset is a core
problem in a broad range of applications such as dataset summarization and
information extraction. Classical exemplar selection methods such as
$k$-medoids work under the assumption that the data points are close to a few
cluster centroids, and cannot handle the case where data lie close to a union
of subspaces. This paper proposes a new exemplar selection model that searches
for a subset that best reconstructs all data points as measured by the $\ell_1$
norm of the representation coefficients. Geometrically, this subset best covers
all the data points as measured by the Minkowski functional of the subset. To
solve our model efficiently, we introduce a farthest first search algorithm
that iteratively selects the worst represented point as an exemplar. When the
dataset is drawn from a union of independent subspaces, our method is able to
select sufficiently many representatives from each subspace. We further develop
an exemplar based subspace clustering method that is robust to imbalanced data
and efficient for large scale data. Moreover, we show that a classifier trained
on the selected exemplars (when they are labeled) can correctly classify the
rest of the data points.
- Abstract(参考訳): ラベルのないデータセットから少数の代表集合を見つけることは、データセットの要約や情報抽出など、幅広いアプリケーションにおいて核となる問題である。
k$-medoidsのような古典的なexemplar selectionメソッドは、データポイントがいくつかのクラスタセンタロイドに近いという仮定の下で動作し、データが部分空間の結合に近い場合は処理できない。
本稿では,表現係数の$\ell_1$ノルムで測定されたすべてのデータポイントを最もよく再構成する部分集合を探索する新しい例題選択モデルを提案する。
幾何学的には、この部分集合は、部分集合のミンコフスキー関数によって測定されたすべてのデータポイントを最もよくカバーする。
モデルを効率的に解くため,最遠の探索アルゴリズムを導入し,最短表現点を例示として反復的に選択する。
データセットが独立部分空間の和から引き出されるとき、我々の方法は各部分空間から十分な数の代表を選択できる。
さらに,不均衡データにロバストで大規模データに効率的であるexemplarベースのサブスペースクラスタリング法を開発した。
さらに,(ラベル付けされた場合)選択された例で訓練された分類器は,残りのデータポイントを正しく分類できることを示す。
関連論文リスト
- Adapt-$\infty$: Scalable Lifelong Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、Lifelong Instruction Tuningの新しいマルチウェイおよびアダプティブデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - A Consistent and Scalable Algorithm for Best Subset Selection in Single
Index Models [1.3236116985407258]
高次元モデルにおける最良の部分集合選択は、計算的に難解であることが知られている。
我々は,高次元SIMにおける最良部分選択のための,証明可能な最初の拡張性アルゴリズムを提案する。
アルゴリズムは部分集合選択の一貫性を保ち、高い確率でオラクル特性を持つ。
論文 参考訳(メタデータ) (2023-09-12T13:48:06Z) - Inv-SENnet: Invariant Self Expression Network for clustering under
biased data [17.25929452126843]
本研究では,各サブ空間におけるデータポイントのクラスタ化を学習しながら,不要な属性(バイアス)を共同で除去する新しいフレームワークを提案する。
合成および実世界のデータセットに対する実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-11-13T01:19:06Z) - Revisiting data augmentation for subspace clustering [21.737226432466496]
サブスペースクラスタリング(Subspace clustering)は、複数の低次元のサブスペースを囲むデータサンプルの集合をクラスタリングする古典的な問題である。
我々は,各部分空間内のデータ分布が自己表現モデルの成功に重要な役割を果たしていると主張している。
教師なし設定と半教師なし設定の2つのサブスペースクラスタリングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T08:13:08Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Adaptive Graph-based Generalized Regression Model for Unsupervised
Feature Selection [11.214334712819396]
非相関的かつ識別的特徴の選択は、教師なしの機能選択の重要な問題である。
非相関制約と $ell_2,1$-norm 正規化によって課される新しい一般化回帰モデルを提案する。
それは同時に同じ近所に属するこれらのデータ ポイントの分散を減らすこと無相関および差別的な特徴を選ぶことができます。
論文 参考訳(メタデータ) (2020-12-27T09:07:26Z) - Adversarial Examples for $k$-Nearest Neighbor Classifiers Based on
Higher-Order Voronoi Diagrams [69.4411417775822]
逆例は機械学習モデルにおいて広く研究されている現象である。
そこで本研究では,$k$-nearest 近傍分類の逆ロバスト性を評価するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-19T08:49:10Z) - Stochastic Sparse Subspace Clustering [20.30051592270384]
最先端のサブスペースクラスタリング手法は、各データポイントを他のデータポイントの線形結合として表現する自己表現モデルに基づいている。
本稿では,データポイントのランダムなドロップアウトに基づくオーバーセグメンテーションの問題に対処するために,ドロップアウトを導入する。
これにより、スケーラブルで柔軟なスパースサブスペースクラスタリングアプローチ(Sparse Subspace Clustering)が実現される。
論文 参考訳(メタデータ) (2020-05-04T13:09:17Z) - Learnable Subspace Clustering [76.2352740039615]
本研究では,大規模サブスペースクラスタリング問題を効率的に解くために,学習可能なサブスペースクラスタリングパラダイムを開発する。
鍵となる考え方は、高次元部分空間を下層の低次元部分空間に分割するパラメトリック関数を学ぶことである。
我々の知る限り、本論文は、サブスペースクラスタリング手法の中で、数百万のデータポイントを効率的にクラスタ化する最初の試みである。
論文 参考訳(メタデータ) (2020-04-09T12:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。