論文の概要: Efficient Tensor Decomposition
- arxiv url: http://arxiv.org/abs/2007.15589v1
- Date: Thu, 30 Jul 2020 16:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 15:01:44.963768
- Title: Efficient Tensor Decomposition
- Title(参考訳): 効率的なテンソル分解
- Authors: Aravindan Vijayaraghavan
- Abstract要約: この章はテンソルを構成ランク1のテンソルの和に分解する問題を研究している。
軽度な仮定の下で証明可能な保証付き効率的なアルゴリズムを設計し、スムーズな分析のような最悪のフレームワークを使用する方法を探ります。
- 参考スコア(独自算出の注目度): 10.165529175855712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This chapter studies the problem of decomposing a tensor into a sum of
constituent rank one tensors. While tensor decompositions are very useful in
designing learning algorithms and data analysis, they are NP-hard in the
worst-case. We will see how to design efficient algorithms with provable
guarantees under mild assumptions, and using beyond worst-case frameworks like
smoothed analysis.
- Abstract(参考訳): この章はテンソルを構成ランク1のテンソルの和に分解する問題を研究している。
テンソル分解は学習アルゴリズムやデータ解析を設計するのに非常に有用であるが、最悪の場合NPハードである。
軽度な仮定の下で証明可能な保証付き効率的なアルゴリズムを設計し、スムーズな分析のような最悪のフレームワークを使用する方法を探ります。
関連論文リスト
- A Mirror Descent-Based Algorithm for Corruption-Tolerant Distributed Gradient Descent [57.64826450787237]
本研究では, 分散勾配降下アルゴリズムの挙動を, 敵対的腐敗の有無で解析する方法を示す。
汚職耐性の分散最適化アルゴリズムを設計するために、(怠慢な)ミラー降下からアイデアをどう使うかを示す。
MNISTデータセットの線形回帰、サポートベクトル分類、ソフトマックス分類に基づく実験は、我々の理論的知見を裏付けるものである。
論文 参考訳(メタデータ) (2024-07-19T08:29:12Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Decomposition of linear tensor transformations [0.0]
本研究の目的は, 正確なテンソル分解のための数学的枠組みを開発することである。
論文では3つの異なる問題を導出する。
論文 参考訳(メタデータ) (2023-09-14T16:14:38Z) - Scalable and Robust Tensor Ring Decomposition for Large-scale Data [12.02023514105999]
本稿では,大規模テンソルデータに欠落したエントリと粗悪な破損を扱えるスケーラブルで堅牢なTR分解アルゴリズムを提案する。
まず, 欠落したエントリを適応的に満たし, 分解過程における外れ値の同定が可能な, 自己重み付き急勾配降下法を開発した。
論文 参考訳(メタデータ) (2023-05-15T22:08:47Z) - Fast Learnings of Coupled Nonnegative Tensor Decomposition Using Optimal Gradient and Low-rank Approximation [7.265645216663691]
交互勾配法(CoNCPD-APG)により最適化された新しい非負のCANDECOMP/PARAFAC分解アルゴリズムを提案する。
提案手法は,低ランク近似をCONCPD-APG法と組み合わせることで,分解品質を損なうことなく計算負担を大幅に削減することができる。
論文 参考訳(メタデータ) (2023-02-10T08:49:36Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Fast and Provable Tensor Robust Principal Component Analysis via Scaled
Gradient Descent [30.299284742925852]
本稿では、テンソルロバスト主成分分析(RPCA)に取り組む。
希少な腐敗によって汚染された観測から低ランクのテンソルを回収することを目的としている。
提案アルゴリズムは, 最先端行列やテンソルRPCAアルゴリズムよりも, より優れた, よりスケーラブルな性能を実現する。
論文 参考訳(メタデータ) (2022-06-18T04:01:32Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Robust M-estimation-based Tensor Ring Completion: a Half-quadratic
Minimization Approach [14.048989759890475]
我々はM推定器を誤差統計量として用いるテンソル環完備化への頑健なアプローチを開発する。
truncatedの特異値分解と行列分解に基づくHQに基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-19T04:37:50Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。