論文の概要: Perplexity-free Parametric t-SNE
- arxiv url: http://arxiv.org/abs/2010.01359v1
- Date: Sat, 3 Oct 2020 13:47:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 08:54:19.531975
- Title: Perplexity-free Parametric t-SNE
- Title(参考訳): パープレキシティフリーパラメトリックt-SNE
- Authors: Francesco Crecchi, Cyril de Bodt, Michel Verleysen, John A. Lee and
Davide Bacciu
- Abstract要約: t-distributed Neighbor Embedding (t-SNE) アルゴリズムは、ユビキタスに使われている次元減少法である。
しかし、ユーザ定義のパープレキシティパラメータに拘束され、最近開発されたマルチスケールパープレキシティフリーアプローチと比較してDR品質が制限される。
そこで本稿では, パープレキシティチューニングから解放されたマルチスケールパラメトリックt-SNE方式と, マッピングを実装したディープニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 11.970023029249083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The t-distributed Stochastic Neighbor Embedding (t-SNE) algorithm is a
ubiquitously employed dimensionality reduction (DR) method. Its non-parametric
nature and impressive efficacy motivated its parametric extension. It is
however bounded to a user-defined perplexity parameter, restricting its DR
quality compared to recently developed multi-scale perplexity-free approaches.
This paper hence proposes a multi-scale parametric t-SNE scheme, relieved from
the perplexity tuning and with a deep neural network implementing the mapping.
It produces reliable embeddings with out-of-sample extensions, competitive with
the best perplexity adjustments in terms of neighborhood preservation on
multiple data sets.
- Abstract(参考訳): t-distributed stochastic neighbor embedded (t-sne) アルゴリズムはユビキタスに採用された次元還元法である。
非パラメトリックな性質と印象的な有効性はパラメトリック拡張を動機づけた。
しかし、ユーザ定義のパープレキシティパラメータに拘束され、最近開発されたマルチスケールパープレキシティフリーアプローチと比較してDR品質が制限される。
そこで本稿では, パープレキシティチューニングから解放されたマルチスケールパラメトリックt-SNE方式と, マッピングを実装したディープニューラルネットワークを提案する。
サンプル外拡張による信頼性の高い埋め込みを生成し、複数のデータセットの近傍保存の観点から最も複雑な調整と競合する。
関連論文リスト
- A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - A Metaheuristic for Amortized Search in High-Dimensional Parameter
Spaces [0.0]
本稿では,特徴インフォームド変換から次元還元を実現するメタヒューリスティックを提案する。
DR-FFITは、高次元空間における勾配自由パラメータ探索を容易にする効率的なサンプリング戦略を実装している。
実験データから,DR-FFITは,確立したメタヒューリスティックスに対するランダム検索とシミュレート・アニーリングの性能を向上させることが示された。
論文 参考訳(メタデータ) (2023-09-28T14:25:14Z) - Online Continuous Hyperparameter Optimization for Generalized Linear Contextual Bandits [55.03293214439741]
文脈的包帯では、エージェントは過去の経験に基づいた時間依存アクションセットから順次アクションを行う。
そこで本稿では,文脈的包帯のためのオンライン連続型ハイパーパラメータチューニングフレームワークを提案する。
理論上はサブ線形の後悔を達成でき、合成データと実データの両方において既存のすべての手法よりも一貫して優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-02-18T23:31:20Z) - Making SGD Parameter-Free [28.088227276891885]
我々のアルゴリズムは概念的には単純で、高い確率保証を持ち、未知の勾配ノルム、滑らかさ、強い凸性に部分的に適応している。
結果の核心は,SGDステップサイズ選択のための新しいパラメータフリー証明書と,SGDのa-プリオリ境界が反復しないと仮定する時間一様濃度の結果である。
論文 参考訳(メタデータ) (2022-05-04T16:29:38Z) - Federated Linear Contextual Bandits [17.438169791449834]
Fed-PEは、ローカルな特徴ベクトルや生データを交換することなく、クライアント間の不均一性に対処するために提案されている。
提案アルゴリズムの有効性を,合成データセットと実世界のデータセットの両方で実証した。
論文 参考訳(メタデータ) (2021-10-27T05:18:58Z) - Differentially Private Coordinate Descent for Composite Empirical Risk
Minimization [13.742100810492014]
機械学習モデルは、トレーニングに使用されるデータに関する情報をリークすることができる。
Differentially Private (DP) のGradient Descent (DP-SGD) のような最適化アルゴリズムは、これを緩和するために設計されている。
差分的私的リスク最小化法(DP-ERM: Differentially Private Coordinate Descent:DP-CD)を提案する。
論文 参考訳(メタデータ) (2021-10-22T10:22:48Z) - Spectral Tensor Train Parameterization of Deep Learning Layers [136.4761580842396]
重み行列の低ランクパラメータ化をDeep Learningコンテキストに埋め込まれたスペクトル特性を用いて検討する。
分類設定におけるニューラルネットワーク圧縮の効果と,生成的対角トレーニング設定における圧縮および安定性トレーニングの改善について述べる。
論文 参考訳(メタデータ) (2021-03-07T00:15:44Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z) - Support recovery and sup-norm convergence rates for sparse pivotal
estimation [79.13844065776928]
高次元スパース回帰では、ピボット推定器は最適な正規化パラメータがノイズレベルに依存しない推定器である。
非滑らかで滑らかな単一タスクとマルチタスク正方形ラッソ型推定器に対するミニマックス超ノルム収束率を示す。
論文 参考訳(メタデータ) (2020-01-15T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。