論文の概要: Rademacher Random Projections with Tensor Networks
- arxiv url: http://arxiv.org/abs/2110.13970v2
- Date: Thu, 28 Oct 2021 05:04:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 12:18:04.348866
- Title: Rademacher Random Projections with Tensor Networks
- Title(参考訳): テンソルネットワークを用いたラデマチャーランダム射影
- Authors: Beheshteh T. Rakhshan and Guillaume Rabusseau
- Abstract要約: 列車分解に依拠したテンソル化ランダム射影について考察する。
合成データの実験により、テンソル化Rademacher RPは、テンソル化Gaussian RPより優れていることが示された。
- 参考スコア(独自算出の注目度): 10.140147080535222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Random projection (RP) have recently emerged as popular techniques in
themachine learning community for their ability in reducing the dimension of
veryhigh-dimensional tensors. Following the work in [29], we consider a
tensorizedrandom projection relying on Tensor Train (TT) decomposition where
each elementof the core tensors is drawn from a Rademacher distribution. Our
theoreticalresults reveal that the Gaussian low-rank tensor represented in
compressed formin TT format in [29] can be replaced by a TT tensor with core
elements drawnfrom a Rademacher distribution with the same embedding size.
Experiments onsynthetic data demonstrate that tensorized Rademacher RP can
outperform thetensorized Gaussian RP studied in [29]. In addition, we show both
theoreticallyand experimentally, that the tensorized RP in the Matrix Product
Operator (MPO)format proposed in [5] for performing SVD on large matrices is
not a Johnson-Lindenstrauss transform (JLT) and therefore not a well-suited
random projectionmap
- Abstract(参考訳): ランダム・プロジェクション(RP)は、最近、超高次元テンソルの次元を縮小する能力のために、機械学習コミュニティで人気のテクニックとして登場した。
29] の作業に続いて, コアテンソルの各要素がラデマッハ分布から引き出されるテンソルトレイン(TT)分解に依存するテンソル化ランダム射影を考える。
我々の理論は、[29] の圧縮フォルミンTT形式で表されるガウスの低ランクテンソルを、同じ埋め込みサイズでラデマッハ分布から引き出されたコア要素を持つTTテンソルに置き換えることができることを示した。
合成データの実験により、テンソル化ラデマッハrpは[29]で研究されたテンソル化ガウスrpよりも優れることが示された。
さらに, 行列積作用素 (mpo) のテンソル化 rp が[5] で提案されている大きな行列上でのsvd は, ジョンソン・リンデンシュトラウス変換 (jlt) ではなく, 適当なランダム射影写像ではないことを理論的に実験的に示す。
関連論文リスト
- Oblivious subspace embeddings for compressed Tucker decompositions [8.349583867022204]
この研究は、タッカー分解の推定に対する一般的なジョンソン・リンデンシュトラウス型保証を確立する。
適度に大きな顔画像とfMRIのニューロイメージングデータセットでは、実験結果から、かなりの次元の縮小が可能であることが示されている。
論文 参考訳(メタデータ) (2024-06-13T17:58:32Z) - Exact Non-Oblivious Performance of Rademacher Random Embeddings [79.28094304325116]
本稿では,Rademacherランダムプロジェクションの性能を再検討する。
入力データに関して数値的に鋭く、曖昧でない新しい統計的保証を確立する。
論文 参考訳(メタデータ) (2023-03-21T11:45:27Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Langevin Monte Carlo for Contextual Bandits [72.00524614312002]
Langevin Monte Carlo Thompson Sampling (LMC-TS) が提案されている。
提案アルゴリズムは,文脈的帯域幅の特別な場合において,最高のトンプソンサンプリングアルゴリズムと同じサブ線形残差を達成できることを示す。
論文 参考訳(メタデータ) (2022-06-22T17:58:23Z) - When Random Tensors meet Random Matrices [50.568841545067144]
本稿では,ガウス雑音を伴う非対称次数-$d$スパイクテンソルモデルについて検討する。
検討したモデルの解析は、等価なスパイクされた対称テクシットブロック-ワイドランダム行列の解析に起因していることを示す。
論文 参考訳(メタデータ) (2021-12-23T04:05:01Z) - Efficient Tensor Robust PCA under Hybrid Model of Tucker and Tensor
Train [33.33426557160802]
本研究では,TuckerとTTのハイブリッドモデルに基づく効率的な主成分分析(TRPCA)を提案する。
具体的には、理論上は、元のビッグテンソルのTT核ノルム(TTNN)が、タッカー圧縮フォーマットによってはるかに小さなテンソルのノルムに等価に変換できることを明らかにする。
合成テンソルデータおよび実世界のテンソルデータの数値実験により,提案モデルの有効性が検証された。
論文 参考訳(メタデータ) (2021-12-20T01:15:45Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Tensor Train Random Projection [0.0]
本研究は、次元減少のための新しいテンソルトレインランダムプロジェクション(TTRP)法を提案する。
我々のTTRPは、TTランクが1に等しいテンソルトレイン表現によって体系的に構築されている。
テンソルトレイン形式に基づいて、この新しいランダムプロジェクション法は、高次元データセットの次元削減手順を高速化することができる。
論文 参考訳(メタデータ) (2020-10-21T07:31:45Z) - Robust Tensor Principal Component Analysis: Exact Recovery via
Deterministic Model [5.414544833902815]
本稿では,ロバストテンソル主成分分析法(RTPCA)を提案する。
これは最近開発されたテンソルテンソル積とテンソル特異値分解(t-SVD)に基づいている。
論文 参考訳(メタデータ) (2020-08-05T16:26:10Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Tensorized Random Projections [8.279639493543401]
テンソルトレイン(TT)とCP分解形式に依存した2つのテンソル化ランダムプロジェクションマップを提案する。
2つのマップはメモリ要件が非常に低く、入力がCPまたはTTフォーマットで与えられる低階テンソルである場合に効率よく適用できる。
その結果, TTフォーマットは, 同じ歪み比を達成するのに必要な乱射影の大きさにおいて, CPよりもかなり優れていることがわかった。
論文 参考訳(メタデータ) (2020-03-11T03:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。