論文の概要: K-Deep Simplex: Deep Manifold Learning via Local Dictionaries
- arxiv url: http://arxiv.org/abs/2012.02134v4
- Date: Tue, 30 Jul 2024 23:39:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 13:43:16.329788
- Title: K-Deep Simplex: Deep Manifold Learning via Local Dictionaries
- Title(参考訳): K-Deep Simplex: ローカル辞書による深層マニフォールド学習
- Authors: Pranay Tankala, Abiy Tasissa, James M. Murphy, Demba Ba,
- Abstract要約: そこで我々は,K-Deep Simplexを提案する。K-Deep Simplexは,合成ランドマークからなる辞書と,単純度に支持された表現係数を学習する。
本稿では,最小化の交互化による最適化プログラムを解くとともに,アルゴリズムアンローリングを用いた効率よく解釈可能なオートエンコーダを設計する。
実験により,アルゴリズムは効率が高く,合成データセットや実データに対して競争力があることが示された。
- 参考スコア(独自算出の注目度): 8.137198664755598
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose K-Deep Simplex(KDS) which, given a set of data points, learns a dictionary comprising synthetic landmarks, along with representation coefficients supported on a simplex. KDS employs a local weighted $\ell_1$ penalty that encourages each data point to represent itself as a convex combination of nearby landmarks. We solve the proposed optimization program using alternating minimization and design an efficient, interpretable autoencoder using algorithm unrolling. We theoretically analyze the proposed program by relating the weighted $\ell_1$ penalty in KDS to a weighted $\ell_0$ program. Assuming that the data are generated from a Delaunay triangulation, we prove the equivalence of the weighted $\ell_1$ and weighted $\ell_0$ programs. We further show the stability of the representation coefficients under mild geometrical assumptions. If the representation coefficients are fixed, we prove that the sub-problem of minimizing over the dictionary yields a unique solution. Further, we show that low-dimensional representations can be efficiently obtained from the covariance of the coefficient matrix. Experiments show that the algorithm is highly efficient and performs competitively on synthetic and real data sets.
- Abstract(参考訳): そこで我々は,K-Deep Simplex(KDS)を提案する。このK-Deep Simplex(KDS)は,合成ランドマークからなる辞書を,単純度に支持された表現係数とともに学習する。
KDSは局所重み付き$\ell_1$ペナルティを採用しており、各データポイントが近傍のランドマークの凸結合として自身を表現することを奨励している。
本稿では,最小化の交互化による最適化プログラムを解くとともに,アルゴリズムアンローリングを用いた効率よく解釈可能なオートエンコーダを設計する。
KDSの重み付き$\ell_1$ペナルティを重み付き$\ell_0$プログラムに関連付けて提案プログラムを理論的に解析する。
データがデラウネー三角測量から生成されると仮定すると、重み付き$\ell_1$と重み付き$\ell_0$プログラムの等価性を証明する。
さらに、軽微な幾何学的仮定の下での表現係数の安定性を示す。
表現係数が固定された場合、辞書上で最小化する部分確率が一意解となることを証明する。
さらに,係数行列の共分散から低次元表現を効率よく得ることを示す。
実験により,アルゴリズムは効率が高く,合成データセットや実データに対して競争力があることが示された。
関連論文リスト
- Robust Second-Order Nonconvex Optimization and Its Application to Low Rank Matrix Sensing [47.32366699399839]
近似第二エピシロン依存(SOSP)の発見は、よく研究され基礎的な問題である。
本稿では,低次元センサマシン最適化問題に適用する。
論文 参考訳(メタデータ) (2024-03-12T01:27:44Z) - Linearized Wasserstein dimensionality reduction with approximation
guarantees [65.16758672591365]
LOT Wassmap は、ワーッサーシュタイン空間の低次元構造を明らかにするための計算可能なアルゴリズムである。
我々は,LOT Wassmapが正しい埋め込みを実現し,サンプルサイズの増加とともに品質が向上することを示す。
また、LOT Wassmapがペア距離計算に依存するアルゴリズムと比較して計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2023-02-14T22:12:16Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - Scalable Differentially Private Clustering via Hierarchically Separated
Trees [82.69664595378869]
我々は,最大$O(d3/2log n)cdot OPT + O(k d2 log2 n / epsilon2)$,$epsilon$はプライバシ保証であることを示す。
最悪の場合の保証は、最先端のプライベートクラスタリング手法よりも悪いが、提案するアルゴリズムは実用的である。
論文 参考訳(メタデータ) (2022-06-17T09:24:41Z) - Matching Pursuit Based Scheduling for Over-the-Air Federated Learning [67.59503935237676]
本稿では,フェデレートラーニング手法を用いて,オーバー・ザ・エアラーニングのための低複雑さデバイススケジューリングアルゴリズムのクラスを開発する。
最先端の提案方式と比較すると,提案方式は極めて低効率なシステムである。
提案手法の有効性は,CIFARデータセットを用いた実験により確認した。
論文 参考訳(メタデータ) (2022-06-14T08:14:14Z) - Introducing the Expohedron for Efficient Pareto-optimal Fairness-Utility
Amortizations in Repeated Rankings [9.066817876491053]
我々は,生産者側の個々人の露出不公平さを最小限に抑えつつ,消費者側の実用性を最大化する一連のランキングを計算することの課題を考える。
幾何的対象 (polytope) と呼ばれる多面体(polytope) を導入し、その点が位置ベースモデルに対する全ての達成可能なアイテムの露出を表す。
提案手法は,アルゴリズムの複雑度と経験的実行時間の観点から,線形あるいは二次的なプログラミングベースラインと比較した。
我々の解は、BvN分解で達成された$(n-1)2 + 1$の代わりに、わずか$n$置換の分布として表すことができる。
論文 参考訳(メタデータ) (2022-02-07T14:43:35Z) - Lattice partition recovery with dyadic CART [79.96359947166592]
我々は、$d$次元格子上の加法ガウス雑音によって破損したピースワイド定値信号について検討する。
この形式のデータは、多くのアプリケーションで自然に発生し、統計処理や信号処理の文献において、信号の検出やテスト、ノイズの除去、推定といったタスクが広く研究されている。
本稿では,未知の信号の一貫性領域によって誘導される格子の分割を推定する,分割回復の問題について考察する。
我々は、DCARTベースの手順が、下位分割を$sigma2 k*の順序で一貫して推定することを証明した。
論文 参考訳(メタデータ) (2021-05-27T23:41:01Z) - Weighed l1 on the simplex: Compressive sensing meets locality [4.47196217712431]
スパース多様体学習アルゴリズムは、多様体学習とスパース最適化の技法を組み合わせて、下流タスクに使用できる特徴を学習する。
データ固有の幾何学構造のため、辞書原子は冗長であり、制限された等尺性やコヒーレンス条件を満たすことができない。
本稿では,辞書とスパース係数を学習する最適化プログラムについて論じ,合成および実データに対する正規化の有用性を実証する。
論文 参考訳(メタデータ) (2021-04-28T17:26:29Z) - Hybrid Trilinear and Bilinear Programming for Aligning Partially
Overlapping Point Sets [85.71360365315128]
多くの応用において、部分重なり合う点集合が対応するRPMアルゴリズムに不変であるようなアルゴリズムが必要である。
まず、目的が立方体有界関数であることを示し、次に、三線型および双線型単相変換の凸エンベロープを用いて、その下界を導出する。
次に、変換変数上の分岐のみを効率よく実行するブランチ・アンド・バウンド(BnB)アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-01-19T04:24:23Z) - Wasserstein k-means with sparse simplex projection [20.661025590877774]
本稿では,ヒストグラムデータに対するより高速なワッサースタイン$k$-meansアルゴリズムを提案する。
我々はデータサンプル、セントロイド、地価行列を縮小する。
クラスタリング品質の劣化を低く保ちながら,スパース・シンプルックス・プロジェクションを利用する。
論文 参考訳(メタデータ) (2020-11-25T06:37:45Z) - Efficient Algorithms for Multidimensional Segmented Regression [42.046881924063044]
多次元回帰を用いた固定設計の基本問題について検討する。
我々は任意の固定次元におけるこの問題に対する最初のサンプルと計算効率のよいアルゴリズムを提供する。
提案アルゴリズムは,多次元的条件下では新規な,単純なマージ反復手法に依存している。
論文 参考訳(メタデータ) (2020-03-24T19:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。