論文の概要: Is an Affine Constraint Needed for Affine Subspace Clustering?
- arxiv url: http://arxiv.org/abs/2005.03888v1
- Date: Fri, 8 May 2020 07:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 11:30:38.620077
- Title: Is an Affine Constraint Needed for Affine Subspace Clustering?
- Title(参考訳): アフィン部分空間クラスタリングにはアフィン制約が必要か?
- Authors: Chong You and Chun-Guang Li and Daniel P. Robinson and Rene Vidal
- Abstract要約: コンピュータビジョンアプリケーションでは、サブスペースは線形であり、サブスペースクラスタリング法を直接適用することができる。
運動セグメンテーションでは、部分空間はアフィンであり、係数に対する追加のアフィン制約はしばしば強制される。
本稿では,アフィン空間の次元がアフィン部分空間の次元の和に対して高い場合,アフィン制約がクラスタリング性能に無視できない効果を持つことを示す。
- 参考スコア(独自算出の注目度): 27.00532615975731
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subspace clustering methods based on expressing each data point as a linear
combination of other data points have achieved great success in computer vision
applications such as motion segmentation, face and digit clustering. In face
clustering, the subspaces are linear and subspace clustering methods can be
applied directly. In motion segmentation, the subspaces are affine and an
additional affine constraint on the coefficients is often enforced. However,
since affine subspaces can always be embedded into linear subspaces of one
extra dimension, it is unclear if the affine constraint is really necessary.
This paper shows, both theoretically and empirically, that when the dimension
of the ambient space is high relative to the sum of the dimensions of the
affine subspaces, the affine constraint has a negligible effect on clustering
performance. Specifically, our analysis provides conditions that guarantee the
correctness of affine subspace clustering methods both with and without the
affine constraint, and shows that these conditions are satisfied for
high-dimensional data. Underlying our analysis is the notion of affinely
independent subspaces, which not only provides geometrically interpretable
correctness conditions, but also clarifies the relationships between existing
results for affine subspace clustering.
- Abstract(参考訳): 各データポイントを他のデータポイントの線形結合として表現したサブスペースクラスタリング法は、モーションセグメンテーション、顔、数字クラスタリングなどのコンピュータビジョンアプリケーションにおいて大きな成功を収めた。
顔クラスタリングでは、サブスペースは線形であり、サブスペースクラスタリング手法を直接適用することができる。
運動分節では、部分空間はアフィンであり、係数に対する追加のアフィン制約はしばしば強制される。
しかし、アフィン部分空間は常にある余剰次元の線型部分空間に埋め込まれるため、アフィン制約が本当に必要かどうかは不明である。
本稿では,アフィン空間の次元がアフィン部分空間の次元の和に対して高い場合,アフィン制約がクラスタリング性能に無視できない効果を持つことを示す。
具体的には,アフィン制約の有無に関わらず,アフィン部分空間クラスタリング手法の正確性を保証する条件を提供し,これらの条件が高次元データに適合することを示す。
このことは、幾何学的に解釈可能な正当性条件を提供するだけでなく、アフィン部分空間クラスタリングの既存の結果の間の関係を明らかにする。
関連論文リスト
- Relative intrinsic dimensionality is intrinsic to learning [49.5738281105287]
本稿では,データ分布の固有次元の概念を導入し,データの分離性特性を正確に把握する。
この本質的な次元に対して、上の親指の規則は法則となり、高本質的な次元は高度に分離可能なデータを保証する。
本稿では,2進分類問題における学習と一般化の確率について,上界と下界の両方に相対固有次元を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T10:41:45Z) - One-step Bipartite Graph Cut: A Normalized Formulation and Its
Application to Scalable Subspace Clustering [56.81492360414741]
両部グラフの1ステップ正規化カットを、特に線形時間複雑性で実施する方法を示す。
本稿では、まず、正規化制約付き一段階二分グラフカット基準を特徴付けるとともに、そのトレース問題に対する等価性を理論的に証明する。
このカット基準を、適応アンカー学習、二部グラフ学習、一段階正規化二部グラフ分割を同時にモデル化するスケーラブルなサブスペースクラスタリングアプローチに拡張する。
論文 参考訳(メタデータ) (2023-05-12T11:27:20Z) - Principal Component Analysis in Space Forms [7.822210329345704]
空間形式における主成分分析(PCA)について検討する。
空間形式における与えられた点に対する最適の低次元アフィン部分空間を見つけることは次元減少に等しい。
最適アフィン部分空間は等式への解であり、(2)異なる次元の最適アフィン部分空間はネスト集合を形成する。
論文 参考訳(メタデータ) (2023-01-06T23:48:37Z) - Unsupervised Manifold Linearizing and Clustering [19.879641608165887]
本稿では、データ表現と2重クラスタメンバシップの両方に関して、最大符号化削減度を最適化することを提案する。
CIFAR-10, -20, -100, TinyImageNet-200データセットに対する実験により,提案手法は最先端のディープクラスタリング手法よりもはるかに正確でスケーラブルであることが示された。
論文 参考訳(メタデータ) (2023-01-04T20:08:23Z) - Continuous percolation in a Hilbert space for a large system of qubits [58.720142291102135]
パーコレーション遷移は無限クラスターの出現によって定義される。
ヒルベルト空間の指数的に増加する次元性は、有限サイズの超球面による被覆を非効率にすることを示す。
コンパクトな距離空間におけるパーコレーション遷移への我々のアプローチは、他の文脈での厳密な処理に有用である。
論文 参考訳(メタデータ) (2022-10-15T13:53:21Z) - Semi-Supervised Subspace Clustering via Tensor Low-Rank Representation [64.49871502193477]
本稿では,初期監視情報を同時に拡張し,識別親和性行列を構築することのできる,新しい半教師付きサブスペースクラスタリング手法を提案する。
6つの一般的なベンチマークデータセットの総合的な実験結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-21T01:47:17Z) - Linear Classifiers in Mixed Constant Curvature Spaces [40.82908295137667]
我々は、ユークリッド空間、球面空間、双曲空間の混合である積空間形式の線形分類の問題に対処する。
我々は、$d$-次元定数曲率空間の線形分類子が正確に$d+1$点を粉砕できることを証明した。
新規なパーセプトロン分類アルゴリズムを記述し、厳密な収束結果を確立する。
論文 参考訳(メタデータ) (2021-02-19T23:29:03Z) - Switch Spaces: Learning Product Spaces with Sparse Gating [48.591045282317424]
製品空間における表現を学習するためのデータ駆動アプローチであるswitch spacesを提案する。
我々は空間の選択、結合、切り替えを学習するスパースゲーティング機構を導入する。
知識グラフの補完と項目レコメンデーションの実験により,提案したスイッチ空間が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2021-02-17T11:06:59Z) - A Critique of Self-Expressive Deep Subspace Clustering [23.971512395191308]
サブスペースクラスタリング(Subspace clustering)は、線形サブスペースの和集合上でサポートされているデータをクラスタリングするために設計された、教師なしクラスタリング技術である。
従来の作業では適切に対処されていなかったこのアプローチには,潜在的な欠陥がいくつかあることを示す。
論文 参考訳(メタデータ) (2020-10-08T00:14:59Z) - Joint and Progressive Subspace Analysis (JPSA) with Spatial-Spectral
Manifold Alignment for Semi-Supervised Hyperspectral Dimensionality Reduction [48.73525876467408]
本稿では,超スペクトル部分空間解析のための新しい手法を提案する。
この手法はジョイント・アンド・プログレッシブ・サブスペース分析(JPSA)と呼ばれる。
2つの広帯域超スペクトルデータセットに対して提案したJPSAの優位性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-21T16:29:59Z) - Stochastic Sparse Subspace Clustering [20.30051592270384]
最先端のサブスペースクラスタリング手法は、各データポイントを他のデータポイントの線形結合として表現する自己表現モデルに基づいている。
本稿では,データポイントのランダムなドロップアウトに基づくオーバーセグメンテーションの問題に対処するために,ドロップアウトを導入する。
これにより、スケーラブルで柔軟なスパースサブスペースクラスタリングアプローチ(Sparse Subspace Clustering)が実現される。
論文 参考訳(メタデータ) (2020-05-04T13:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。