論文の概要: GroupEnc: encoder with group loss for global structure preservation
- arxiv url: http://arxiv.org/abs/2309.02917v1
- Date: Wed, 6 Sep 2023 11:22:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 15:46:39.499403
- Title: GroupEnc: encoder with group loss for global structure preservation
- Title(参考訳): GroupEnc:グローバルな構造保存のためのグループ損失付きエンコーダ
- Authors: David Novak, Sofie Van Gassen, Yvan Saeys
- Abstract要約: 我々は、深層学習モデルを作成するために、地域レベルとグローバルレベルの両方で構造保存の概念を使用します。
我々のモデルはGroupEncと呼ばれ、VAEよりもグローバルな構造歪みが少ない埋め込みを生成するために 'group loss' 関数を使用します。
生物学的単細胞転写データセットを用いて,本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 1.8523441396284195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in dimensionality reduction have achieved more accurate
lower-dimensional embeddings of high-dimensional data. In addition to
visualisation purposes, these embeddings can be used for downstream processing,
including batch effect normalisation, clustering, community detection or
trajectory inference. We use the notion of structure preservation at both local
and global levels to create a deep learning model, based on a variational
autoencoder (VAE) and the stochastic quartet loss from the SQuadMDS algorithm.
Our encoder model, called GroupEnc, uses a 'group loss' function to create
embeddings with less global structure distortion than VAEs do, while keeping
the model parametric and the architecture flexible. We validate our approach
using publicly available biological single-cell transcriptomic datasets,
employing RNX curves for evaluation.
- Abstract(参考訳): 近年の次元化の進歩は、高次元データのより正確な低次元埋め込みを実現している。
視覚化の目的に加えて、バッチ効果の正規化、クラスタリング、コミュニティ検出、軌道推論など、下流処理にも使用できる。
局所・グローバルレベルでの構造保存の概念を用いて,変分オートエンコーダ(VAE)とSQuadMDSアルゴリズムの確率的四重項損失に基づく深層学習モデルを作成する。
我々のエンコーダモデルは、GroupEncと呼ばれ、VAEよりもグローバルな構造歪みが少ない埋め込みを生成するために、モデルパラメトリックとアーキテクチャを柔軟に保つために 'group loss' 関数を使用します。
本手法は, RNX曲線を用いた生体単細胞転写データセットを用いて評価を行った。
関連論文リスト
- ClusterGraph: a new tool for visualization and compression of multidimensional data [0.0]
本稿では,任意のクラスタリングアルゴリズムの出力に付加的なレイヤを提供する。
クラスタリングアルゴリズムから得られたクラスタのグローバルなレイアウトに関する情報を提供する。
論文 参考訳(メタデータ) (2024-11-08T09:40:54Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Scalable manifold learning by uniform landmark sampling and constrained
locally linear embedding [0.6144680854063939]
本研究では,大規模・高次元データを効率的に操作できるスケーラブルな多様体学習法を提案する。
異なるタイプの合成データセットと実世界のベンチマークにおけるSCMLの有効性を実証的に検証した。
scMLはデータサイズや埋め込み次元の増大とともにスケールし、グローバル構造を保存する上で有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-01-02T08:43:06Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - On the convergence of group-sparse autoencoders [9.393652136001732]
我々は,様々な生成モデルを考慮したグループスパースオートエンコーダを導入,研究する。
クラスタリングモデルの場合、アクティブなユニットの同じグループで発生する入力は同じクラスタに属します。
この設定では、ネットワークパラメータを生成行列の近傍に収束させることを理論的に証明する。
論文 参考訳(メタデータ) (2021-02-13T21:17:07Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Joint Optimization of an Autoencoder for Clustering and Embedding [22.16059261437617]
本稿では,自動エンコーダとクラスタリングを同時に学習する代替手法を提案する。
この単純なニューラルネットワークはクラスタリングモジュールと呼ばれ、ディープオートエンコーダに統合され、ディープクラスタリングモデルとなる。
論文 参考訳(メタデータ) (2020-12-07T14:38:10Z) - Self-grouping Convolutional Neural Networks [30.732298624941738]
本稿では,SG-CNNと呼ばれる自己グループ型畳み込みニューラルネットワークの設計手法を提案する。
各フィルタについて、まず入力チャネルの重要度を評価し、重要度ベクトルを同定する。
得られたデータに依存したセントロイドを用いて、重要でない接続を創り出し、プルーニングの精度損失を暗黙的に最小化する。
論文 参考訳(メタデータ) (2020-09-29T06:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。