論文の概要: Efficient Tensor Decomposition
- arxiv url: http://arxiv.org/abs/2007.15589v1
- Date: Thu, 30 Jul 2020 16:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 15:01:44.963768
- Title: Efficient Tensor Decomposition
- Title(参考訳): 効率的なテンソル分解
- Authors: Aravindan Vijayaraghavan
- Abstract要約: この章はテンソルを構成ランク1のテンソルの和に分解する問題を研究している。
軽度な仮定の下で証明可能な保証付き効率的なアルゴリズムを設計し、スムーズな分析のような最悪のフレームワークを使用する方法を探ります。
- 参考スコア(独自算出の注目度): 10.165529175855712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This chapter studies the problem of decomposing a tensor into a sum of
constituent rank one tensors. While tensor decompositions are very useful in
designing learning algorithms and data analysis, they are NP-hard in the
worst-case. We will see how to design efficient algorithms with provable
guarantees under mild assumptions, and using beyond worst-case frameworks like
smoothed analysis.
- Abstract(参考訳): この章はテンソルを構成ランク1のテンソルの和に分解する問題を研究している。
テンソル分解は学習アルゴリズムやデータ解析を設計するのに非常に有用であるが、最悪の場合NPハードである。
軽度な仮定の下で証明可能な保証付き効率的なアルゴリズムを設計し、スムーズな分析のような最悪のフレームワークを使用する方法を探ります。
関連論文リスト
- Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Decomposition of linear tensor transformations [0.0]
本研究の目的は, 正確なテンソル分解のための数学的枠組みを開発することである。
論文では3つの異なる問題を導出する。
論文 参考訳(メタデータ) (2023-09-14T16:14:38Z) - Scalable and Robust Tensor Ring Decomposition for Large-scale Data [12.02023514105999]
本稿では,大規模テンソルデータに欠落したエントリと粗悪な破損を扱えるスケーラブルで堅牢なTR分解アルゴリズムを提案する。
まず, 欠落したエントリを適応的に満たし, 分解過程における外れ値の同定が可能な, 自己重み付き急勾配降下法を開発した。
論文 参考訳(メタデータ) (2023-05-15T22:08:47Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Fast and Provable Tensor Robust Principal Component Analysis via Scaled
Gradient Descent [30.299284742925852]
本稿では、テンソルロバスト主成分分析(RPCA)に取り組む。
希少な腐敗によって汚染された観測から低ランクのテンソルを回収することを目的としている。
提案アルゴリズムは, 最先端行列やテンソルRPCAアルゴリズムよりも, より優れた, よりスケーラブルな性能を実現する。
論文 参考訳(メタデータ) (2022-06-18T04:01:32Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Robust M-estimation-based Tensor Ring Completion: a Half-quadratic
Minimization Approach [14.048989759890475]
我々はM推定器を誤差統計量として用いるテンソル環完備化への頑健なアプローチを開発する。
truncatedの特異値分解と行列分解に基づくHQに基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-19T04:37:50Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Geometric All-Way Boolean Tensor Decomposition [14.065968221500246]
幾何的視点からテンソルのランク-1 基底を逐次同定する GETF を提案する。
合成データと実世界のデータの両方の実験により、GETFは復元精度、潜伏構造の抽出性能を大幅に向上し、他の最先端手法よりも桁違いに高速であることが示された。
論文 参考訳(メタデータ) (2020-07-31T03:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。