論文の概要: GOCPT: Generalized Online Canonical Polyadic Tensor Factorization and
Completion
- arxiv url: http://arxiv.org/abs/2205.03749v1
- Date: Sun, 8 May 2022 01:11:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-15 05:26:13.055541
- Title: GOCPT: Generalized Online Canonical Polyadic Tensor Factorization and
Completion
- Title(参考訳): GOCPT: 一般化されたオンラインカノニカルポリエードテンソル因子化と完了
- Authors: Chaoqi Yang, Cheng Qian, Jimeng Sun
- Abstract要約: 本稿では、一般化されたオンライン正準ポリアディック(CP)分解および完了フレームワーク(OCCPT)を提案する。
既存のオンラインテンソル因子化と完了設定は GOCPT フレームワークの下で統一可能であることを示す。
さらに,GOCPTEという変種を提案し,GOOCPTと同様の適合性を実現するが,計算コストははるかに少ない。
- 参考スコア(独自算出の注目度): 48.586152946234826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-rank tensor factorization or completion is well-studied and applied in
various online settings, such as online tensor factorization (where the
temporal mode grows) and online tensor completion (where incomplete slices
arrive gradually). However, in many real-world settings, tensors may have more
complex evolving patterns: (i) one or more modes can grow; (ii) missing entries
may be filled; (iii) existing tensor elements can change. Existing methods
cannot support such complex scenarios. To fill the gap, this paper proposes a
Generalized Online Canonical Polyadic (CP) Tensor factorization and completion
framework (named GOCPT) for this general setting, where we maintain the CP
structure of such dynamic tensors during the evolution. We show that existing
online tensor factorization and completion setups can be unified under the
GOCPT framework. Furthermore, we propose a variant, named GOCPTE, to deal with
cases where historical tensor elements are unavailable (e.g., privacy
protection), which achieves similar fitness as GOCPT but with much less
computational cost. Experimental results demonstrate that our GOCPT can improve
fitness by up to 2:8% on the JHU Covid data and 9:2% on a proprietary patient
claim dataset over baselines. Our variant GOCPTE shows up to 1:2% and 5:5%
fitness improvement on two datasets with about 20% speedup compared to the best
model.
- Abstract(参考訳): 低ランクテンソルファクタライゼーションや完了は、オンラインテンソルファクタライゼーション(テンポラリモードが成長する)やオンラインテンソル補完(不完全なスライスが徐々に現れる)など、さまざまなオンライン設定でよく研究され、適用されている。
しかし、多くの現実世界の設定では、テンソルはより複雑な進化パターンを持つかもしれない。
(i)1つ以上のモードが成長する。
(ii) 欠落した項目を記入することができる。
(iii)既存のテンソル要素は変更可能である。
既存のメソッドはこのような複雑なシナリオをサポートできない。
このギャップを埋めるために、本論文では、このような動的テンソルのCP構造を進化中に維持する、一般化オンライン正準ポリアディック(CP)テンソル分解および完備化フレームワーク(OCPT)を提案する。
既存のオンラインテンソル因子化と完了設定は GOCPT フレームワークの下で統一可能であることを示す。
さらに,歴史的なテンソル要素が使用できない場合(プライバシ保護など)に対処するために,gocpteという変種を提案する。
実験の結果,JHU Covidデータでは最大2:8%,プロプライエタリな患者クレームデータセットでは9:2%の適合性が得られた。
GOCPTEは2つのデータセットで最大1:2%,5:5%の適合性向上を実現しています。
関連論文リスト
- Efficient Nonparametric Tensor Decomposition for Binary and Count Data [27.02813234958821]
本稿では、二分数テンソルと数テンソルのアンダーラインデコンポジションとして、アンダーライン効率のアンダーラインNonアンダーラインテンソルであるENTEDを提案する。
論文 参考訳(メタデータ) (2024-01-15T14:27:03Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Multi-Dictionary Tensor Decomposition [5.733331864416094]
MDTD(Multi-Dictionary Decomposition)のためのフレームワークを提案する。
我々は、完全な入力と入力の両方を欠落した値で処理する、MDTDの一般的な最適化アルゴリズムを導出する。
何十億ものテンソルの欠落した値を、最先端の競合相手よりも正確かつ精巧に説明することができる。
論文 参考訳(メタデータ) (2023-09-18T12:31:56Z) - Revisiting Class-Incremental Learning with Pre-Trained Models: Generalizability and Adaptivity are All You Need [84.3507610522086]
クラスインクリメンタルラーニング(Class-incremental Learning, CIL)は、古いクラスを忘れずに新しいクラスに適応することを目的としている。
近年の事前訓練は大きな進歩を遂げており、CILには膨大な事前訓練モデル(PTM)が利用できるようになった。
CILの中核となる要素は、モデル更新の適応性と知識伝達の一般化性である。
論文 参考訳(メタデータ) (2023-03-13T17:59:02Z) - Guaranteed Tensor Recovery Fused Low-rankness and Smoothness [38.0243349269575]
我々は、本質的にはテンソルの L と S の両方を同時に符号化する一意な正規化項を構築する。
これはテンソルリカバリのための全ての関連するL+S法の中では初めての正確な復元結果である。
論文 参考訳(メタデータ) (2023-02-04T12:20:32Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - JULIA: Joint Multi-linear and Nonlinear Identification for Tensor
Completion [46.27248186328502]
本稿では,大規模テンソル完備化のためのMUlti-linearおよびNon Linear IdentificAtionフレームワークを提案する。
6つの実大規模テンソルの実験は、JULIAが既存のテンソル完備化アルゴリズムよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-01-31T20:18:41Z) - Scale Efficiently: Insights from Pre-training and Fine-tuning
Transformers [57.931830650323]
本稿では,事前学習および微調整型変圧器によるスケーリングの洞察について述べる。
モデルのサイズだけでなく、モデル形状が下流の微調整に重要であることを示す。
再設計したモデルにより、下流の微調整品質が向上する。
論文 参考訳(メタデータ) (2021-09-22T12:29:15Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。