論文の概要: FRAPPE: $\underline{\text{F}}$ast $\underline{\text{Ra}}$nk
$\underline{\text{App}}$roximation with $\underline{\text{E}}$xplainable
Features for Tensors
- arxiv url: http://arxiv.org/abs/2206.09316v1
- Date: Sun, 19 Jun 2022 03:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 23:42:43.998893
- Title: FRAPPE: $\underline{\text{F}}$ast $\underline{\text{Ra}}$nk
$\underline{\text{App}}$roximation with $\underline{\text{E}}$xplainable
Features for Tensors
- Title(参考訳): FRAPPE: $\underline{\text{F}}$ast $\underline{\text{Ra}}$nk $\underline{\text{App}}$roximation with $\underline{\text{E}}$xplainable Features for Tensors
- Authors: William Shiao and Evangelos E. Papalexakis
- Abstract要約: 我々は,CDDを計算することなくテンソルの正準位を推定する,安価な教師付き自己監督手法FRAPPEとSelf-FRAPPEを提案する。
FRAPPEとSelf-FRAPPEは,MAPEが15%,MAPEが10%,4000timesが1,13timesが1,13timesが最高性能のベースラインよりも評価速度が向上した。
- 参考スコア(独自算出の注目度): 6.470983901277724
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Tensor decompositions have proven to be effective in analyzing the structure
of multidimensional data. However, most of these methods require a key
parameter: the number of desired components. In the case of the
CANDECOMP/PARAFAC decomposition (CPD), this value is known as the canonical
rank and greatly affects the quality of the results. Existing methods use
heuristics or Bayesian methods to estimate this value by repeatedly calculating
the CPD, making them extremely computationally expensive. In this work, we
propose FRAPPE and Self-FRAPPE: a cheaply supervised and a self-supervised
method to estimate the canonical rank of a tensor without ever having to
compute the CPD. We call FRAPPE cheaply supervised because it uses a fully
synthetic training set without requiring real-world examples. We evaluate these
methods on synthetic tensors, real tensors of known rank, and the weight tensor
of a convolutional neural network. We show that FRAPPE and Self-FRAPPE offer
large improvements in both effectiveness and speed, with a respective $15\%$
and $10\%$ improvement in MAPE and an $4000\times$ and $13\times$ improvement
in evaluation speed over the best-performing baseline.
- Abstract(参考訳): テンソル分解は多次元データの構造解析に有効であることが証明されている。
しかし、これらのメソッドのほとんどはキーパラメータ、すなわち所望のコンポーネントの数を必要とします。
CANDECOMP/PARAFAC分解(CPD)の場合、この値は標準ランクとして知られ、結果の品質に大きな影響を与える。
既存の手法ではヒューリスティックス法やベイズ法を用いて CPD を計算し、計算コストを極端に高めている。
本研究では, cpd を計算せずにテンソルの正準位を推定するための, 安価な教師付き自己教師付き手法である frappe と self-frappe を提案する。
FRAPPEは、実世界の実例を必要とせず、完全に総合的なトレーニングセットを使用するため、安価に管理されている。
これらの手法を合成テンソル,既知のランクの実テンソル,畳み込みニューラルネットワークの重みテンソルについて評価する。
FRAPPE と Self-FRAPPE は,それぞれ 15 %$ と 10 %$ の MAPE の改善,4000 倍の $ と 13 倍の $ のベースラインに対する評価速度の向上など,有効性と速度の両面で大きな改善をもたらすことを示す。
関連論文リスト
- Provably Efficient High-Dimensional Bandit Learning with Batched
Feedbacks [93.00280593719513]
本稿では,オンラインインタラクションのT$ステップをバッチに分割したバッチフィードバックによる高次元マルチアームコンテキストバンドレットについて検討する。
具体的には、各バッチは以前のバッチに依存するポリシーに従ってデータを収集し、その報酬はバッチの最後にのみ明らかにする。
我々のアルゴリズムは,$mathcalO( log T)$ バッチで完全に逐次的に設定されたものに匹敵する後悔の限界を達成している。
論文 参考訳(メタデータ) (2023-11-22T06:06:54Z) - Corruption-Robust Offline Reinforcement Learning with General Function
Approximation [60.91257031278004]
一般関数近似を用いたオフライン強化学習(RL)における劣化問題について検討する。
我々のゴールは、崩壊しないマルコフ決定プロセス(MDP)の最適方針に関して、このような腐敗に対して堅牢で、最適でないギャップを最小限に抑える政策を見つけることである。
論文 参考訳(メタデータ) (2023-10-23T04:07:26Z) - A Specialized Semismooth Newton Method for Kernel-Based Optimal
Transport [92.96250725599958]
カーネルベース最適輸送(OT)推定器は、サンプルからOT問題に対処するための代替的機能的推定手順を提供する。
SSN法は, 標準正規性条件下でのグローバル収束率$O (1/sqrtk)$, 局所二次収束率を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-21T18:48:45Z) - A Novel Tensor Factorization-Based Method with Robustness to Inaccurate
Rank Estimation [9.058215418134209]
本稿では,2つの低ランク制約を持つテンソルノルムを提案する。
結果のテンソル完成モデルが不正確なランク推定による性能劣化を効果的に回避できることが理論的に証明されている。
これに基づいて、最適化アルゴリズムの各イテレーションの総コストは$mathcalO(n3log n + kn3)$から$mathcalO(n4)$に削減される。
論文 参考訳(メタデータ) (2023-05-19T06:26:18Z) - Robust Methods for High-Dimensional Linear Learning [0.0]
統計的に頑健で計算効率の良い線形学習法を高次元バッチ設定で提案する。
バニラスパース、グループスパース、低ランク行列回復など、いくつかのアプリケーションでフレームワークをインスタンス化する。
バニラ $s$-sparsity の場合、重いテールと $eta$-corruption の下で $slog (d)/n$ レートに達することができます。
論文 参考訳(メタデータ) (2022-08-10T17:00:41Z) - Provably Efficient Offline Reinforcement Learning with Trajectory-Wise
Reward [66.81579829897392]
我々はPessimistic vAlue iteRaTionとrEward Decomposition (PARTED)という新しいオフライン強化学習アルゴリズムを提案する。
PartEDは、最小2乗ベースの報酬再分配を通じて、ステップごとのプロキシ報酬に軌道を分解し、学習したプロキシ報酬に基づいて悲観的な値を実行する。
私たちの知る限りでは、PartEDは、トラジェクティブな報酬を持つ一般のMDPにおいて、証明可能な効率のよい最初のオフラインRLアルゴリズムである。
論文 参考訳(メタデータ) (2022-06-13T19:11:22Z) - TURF: A Two-factor, Universal, Robust, Fast Distribution Learning
Algorithm [64.13217062232874]
最も強力で成功したモダリティの1つは、全ての分布を$ell$距離に近似し、基本的に最も近い$t$-piece次数-$d_$の少なくとも1倍大きい。
本稿では,この数値をほぼ最適に推定する手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T03:49:28Z) - [Reproducibility Report] Rigging the Lottery: Making All Tickets Winners [1.6884611234933766]
スパーストレーニングアルゴリズムである$textitRigL$は、既存の密集型トレーニング技術のパフォーマンスに適合または超過したスパースネットワークを直接トレーニングする、と主張している。
Pytorchのスクラッチから$textitRigL$を実装し、報告された値の0.1%以内でCIFAR-10のパフォーマンスを再現する。
論文 参考訳(メタデータ) (2021-03-29T17:01:11Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - NeCPD: An Online Tensor Decomposition with Optimal Stochastic Gradient
Descent [1.0953917735844645]
マルチウェイオンラインデータに基づく$(N)Nにおける非効率的な問題に対して,NeCPDという新しい効率的な分解アルゴリズムを提案する。
さらに,本手法を構造的データセットを用いた実生活モニタリングの分野に適用する。
論文 参考訳(メタデータ) (2020-03-18T04:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。