論文の概要: FRAPPE: $\underline{\text{F}}$ast $\underline{\text{Ra}}$nk
$\underline{\text{App}}$roximation with $\underline{\text{E}}$xplainable
Features for Tensors
- arxiv url: http://arxiv.org/abs/2206.09316v1
- Date: Sun, 19 Jun 2022 03:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 23:42:43.998893
- Title: FRAPPE: $\underline{\text{F}}$ast $\underline{\text{Ra}}$nk
$\underline{\text{App}}$roximation with $\underline{\text{E}}$xplainable
Features for Tensors
- Title(参考訳): FRAPPE: $\underline{\text{F}}$ast $\underline{\text{Ra}}$nk $\underline{\text{App}}$roximation with $\underline{\text{E}}$xplainable Features for Tensors
- Authors: William Shiao and Evangelos E. Papalexakis
- Abstract要約: 我々は,CDDを計算することなくテンソルの正準位を推定する,安価な教師付き自己監督手法FRAPPEとSelf-FRAPPEを提案する。
FRAPPEとSelf-FRAPPEは,MAPEが15%,MAPEが10%,4000timesが1,13timesが1,13timesが最高性能のベースラインよりも評価速度が向上した。
- 参考スコア(独自算出の注目度): 6.470983901277724
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Tensor decompositions have proven to be effective in analyzing the structure
of multidimensional data. However, most of these methods require a key
parameter: the number of desired components. In the case of the
CANDECOMP/PARAFAC decomposition (CPD), this value is known as the canonical
rank and greatly affects the quality of the results. Existing methods use
heuristics or Bayesian methods to estimate this value by repeatedly calculating
the CPD, making them extremely computationally expensive. In this work, we
propose FRAPPE and Self-FRAPPE: a cheaply supervised and a self-supervised
method to estimate the canonical rank of a tensor without ever having to
compute the CPD. We call FRAPPE cheaply supervised because it uses a fully
synthetic training set without requiring real-world examples. We evaluate these
methods on synthetic tensors, real tensors of known rank, and the weight tensor
of a convolutional neural network. We show that FRAPPE and Self-FRAPPE offer
large improvements in both effectiveness and speed, with a respective $15\%$
and $10\%$ improvement in MAPE and an $4000\times$ and $13\times$ improvement
in evaluation speed over the best-performing baseline.
- Abstract(参考訳): テンソル分解は多次元データの構造解析に有効であることが証明されている。
しかし、これらのメソッドのほとんどはキーパラメータ、すなわち所望のコンポーネントの数を必要とします。
CANDECOMP/PARAFAC分解(CPD)の場合、この値は標準ランクとして知られ、結果の品質に大きな影響を与える。
既存の手法ではヒューリスティックス法やベイズ法を用いて CPD を計算し、計算コストを極端に高めている。
本研究では, cpd を計算せずにテンソルの正準位を推定するための, 安価な教師付き自己教師付き手法である frappe と self-frappe を提案する。
FRAPPEは、実世界の実例を必要とせず、完全に総合的なトレーニングセットを使用するため、安価に管理されている。
これらの手法を合成テンソル,既知のランクの実テンソル,畳み込みニューラルネットワークの重みテンソルについて評価する。
FRAPPE と Self-FRAPPE は,それぞれ 15 %$ と 10 %$ の MAPE の改善,4000 倍の $ と 13 倍の $ のベースラインに対する評価速度の向上など,有効性と速度の両面で大きな改善をもたらすことを示す。
関連論文リスト
- Multi-Dictionary Tensor Decomposition [5.733331864416094]
MDTD(Multi-Dictionary Decomposition)のためのフレームワークを提案する。
我々は、完全な入力と入力の両方を欠落した値で処理する、MDTDの一般的な最適化アルゴリズムを導出する。
何十億ものテンソルの欠落した値を、最先端の競合相手よりも正確かつ精巧に説明することができる。
論文 参考訳(メタデータ) (2023-09-18T12:31:56Z) - From Fake to Real: Pretraining on Balanced Synthetic Images to Prevent Spurious Correlations in Image Recognition [64.59093444558549]
我々はFrom Fake to Realと呼ぶシンプルで簡単に実装できる2段階のトレーニングパイプラインを提案する。
実データと合成データを別々にトレーニングすることで、FFRは実データと合成データの統計的差異にモデルを公開しない。
実験の結果,FFRは3つのデータセットに対して,最先端のグループ精度を最大20%向上させることがわかった。
論文 参考訳(メタデータ) (2023-08-08T19:52:28Z) - A Novel Tensor Factorization-Based Method with Robustness to Inaccurate
Rank Estimation [9.058215418134209]
本稿では,2つの低ランク制約を持つテンソルノルムを提案する。
結果のテンソル完成モデルが不正確なランク推定による性能劣化を効果的に回避できることが理論的に証明されている。
これに基づいて、最適化アルゴリズムの各イテレーションの総コストは$mathcalO(n3log n + kn3)$から$mathcalO(n4)$に削減される。
論文 参考訳(メタデータ) (2023-05-19T06:26:18Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - Modeling Label Correlations for Second-Order Semantic Dependency Parsing
with Mean-Field Inference [34.75002236767817]
エンド・ツー・エンド平均場推論を用いた2次セマンティック解析は優れた性能を示した。
本研究では,隣り合う弧間のラベル相関をモデル化することで,この手法を改善することを目的とする。
この計算課題に対処するために、テンソル分解技術を利用する。
論文 参考訳(メタデータ) (2022-04-07T17:40:08Z) - Computationally Efficient Approximations for Matrix-based Renyi's
Entropy [33.72108955447222]
最近開発された行列ベースのRenyiのエントロピーは、データ内の情報の計測を可能にする。
そのような量の計算には、PSD行列の$G$上のトレース演算子を$alpha$(つまり$tr(Galpha)$)の電力とする。
我々は、この新しいエントロピー汎函数に対する計算学的に効率的な近似を示し、その複雑性を$O(n2)$よりもはるかに小さくすることができる。
論文 参考訳(メタデータ) (2021-12-27T14:59:52Z) - Augmented Tensor Decomposition with Stochastic Optimization [46.16865811396394]
実世界のテンソルデータは、通常高次で、数百万から数十億のエントリを持つ大きな次元を持つ。
テンソル全体を従来のアルゴリズムで分解するのは高価である。
本稿では、データ拡張を効果的に取り入れて下流の分類を向上する拡張テンソル分解を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:29:05Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。