論文の概要: SparCA: Sparse Compressed Agglomeration for Feature Extraction and
Dimensionality Reduction
- arxiv url: http://arxiv.org/abs/2302.10776v1
- Date: Thu, 26 Jan 2023 13:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 14:09:02.777115
- Title: SparCA: Sparse Compressed Agglomeration for Feature Extraction and
Dimensionality Reduction
- Title(参考訳): SparCA: 特徴抽出と次元化のためのスパース圧縮凝集
- Authors: Leland Barnard, Farwa Ali, Hugo Botha, David T. Jones
- Abstract要約: 本稿では,新しい次元縮小法としてスパース圧縮凝集法(SparCA)を提案する。
SparCAは、幅広いデータタイプに適用でき、高度に解釈可能な機能を生成し、下流の教師あり学習タスクで魅力的なパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The most effective dimensionality reduction procedures produce interpretable
features from the raw input space while also providing good performance for
downstream supervised learning tasks. For many methods, this requires
optimizing one or more hyperparameters for a specific task, which can limit
generalizability. In this study we propose sparse compressed agglomeration
(SparCA), a novel dimensionality reduction procedure that involves a multistep
hierarchical feature grouping, compression, and feature selection process. We
demonstrate the characteristics and performance of the SparCA method across
heterogenous synthetic and real-world datasets, including images, natural
language, and single cell gene expression data. Our results show that SparCA is
applicable to a wide range of data types, produces highly interpretable
features, and shows compelling performance on downstream supervised learning
tasks without the need for hyperparameter tuning.
- Abstract(参考訳): 最も効果的な次元削減手順は、下流教師あり学習タスクに優れた性能を提供しながら、生の入力空間から解釈可能な特徴を生成する。
多くのメソッドでは、これは特定のタスクのために1つ以上のハイパーパラメータを最適化する必要がある。
本研究では,多段階の階層的特徴グループ化,圧縮,特徴選択を含む新しい次元還元法であるスパース圧縮凝集法(SparCA)を提案する。
本研究では,SparCA法の特徴と性能を,画像,自然言語,単一細胞遺伝子発現データを含む異種合成および実世界のデータセットで示す。
以上の結果から,sparcaは幅広いデータ型に適用可能であり,高度に解釈可能な特徴を持ち,ハイパーパラメータチューニングを必要とせず下流の教師付き学習タスクにおいて魅力的な性能を示す。
関連論文リスト
- ADRS-CNet: An adaptive dimensionality reduction selection and classification network for DNA storage clustering algorithms [8.295062627879938]
PCA、UMAP、t-SNEといった手法は、高次元の特徴を低次元空間に投影するために一般的に用いられる。
本稿では,入力DNA配列の特徴を分類する多層パーセプトロンモデルを訓練し,最適次元削減法を適応的に選択する。
論文 参考訳(メタデータ) (2024-08-22T22:26:41Z) - Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers [58.5711048151424]
SPARSEK Attention(SPARSEK Attention)は、計算およびメモリ障害を克服するために設計された、新しいスパースアテンション機構である。
提案手法では,各クエリに対して一定数のKVペアを選択するために,スコアリングネットワークと差別化可能なトップkマスク演算子であるSPARSEKを統合する。
実験結果から,SPARSEK注意は従来のスパースアテンション法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-24T15:55:59Z) - Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Low-Rank Representations Meets Deep Unfolding: A Generalized and
Interpretable Network for Hyperspectral Anomaly Detection [41.50904949744355]
現在のハイパースペクトル異常検出(HAD)ベンチマークデータセットは、低解像度、単純なバックグラウンド、検出データの小さなサイズに悩まされている。
これらの要因は、ロバスト性の観点からよく知られた低ランク表現(LRR)モデルの性能も制限する。
我々は、複雑なシナリオにおけるHADアルゴリズムの堅牢性を改善するために、新しいHADベンチマークデータセットであるAIR-HADを構築した。
論文 参考訳(メタデータ) (2024-02-23T14:15:58Z) - Enhancing Representation Learning on High-Dimensional, Small-Size
Tabular Data: A Divide and Conquer Method with Ensembled VAEs [7.923088041693465]
特徴空間の部分集合の後方部分集合を学習するための軽量なVAEのアンサンブルを, 新規な分割コンカレントアプローチで結合後部分集合に集約する。
このアプローチは推論時に部分的な機能に対して堅牢であることを示し、ほとんどの機能が欠落していても、パフォーマンスの劣化がほとんどないことを示します。
論文 参考訳(メタデータ) (2023-06-27T17:55:31Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Generalized Operating Procedure for Deep Learning: an Unconstrained
Optimal Design Perspective [4.570823264643028]
本稿では,ディープラーニング(DL)の一般化運用手順について述べる。
マルチストリームのエンドツーエンド話者検証システムを構築し、複数の並列ストリームで入力音声の発話を処理する。
VoxCelebデータセットを用いて学習し,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-12-31T01:37:56Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - New advances in enumerative biclustering algorithms with online
partitioning [80.22629846165306]
さらに、数値データセットの列に定数値を持つ最大二クラスタの効率的で完全で正しい非冗長列挙を実現できる二クラスタリングアルゴリズムであるRIn-Close_CVCを拡張した。
改良されたアルゴリズムはRIn-Close_CVC3と呼ばれ、RIn-Close_CVCの魅力的な特性を保ちます。
論文 参考訳(メタデータ) (2020-03-07T14:54:26Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。