論文の概要: TenExp: Mixture-of-Experts-Based Tensor Decomposition Structure Search Framework
- arxiv url: http://arxiv.org/abs/2603.02720v1
- Date: Tue, 03 Mar 2026 08:19:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.704818
- Title: TenExp: Mixture-of-Experts-Based Tensor Decomposition Structure Search Framework
- Title(参考訳): TenExp:Mixture-of-Experts-based Tensor Decomposition Structure Search Framework
- Authors: Ting-Wei Zhou, Xi-Le Zhao, Sheng Liu, Wei-Hao Wu, Yu-Bang Zheng, Deyu Meng,
- Abstract要約: 現在のテンソル分解構造探索法はまだ固定因子相互作用族によって制限されている。
実験用混合型テンソル分解構造探索フレームワーク(TenExp)を精巧に設計する。
TenExpにより、教師なしの方法で適切なテンソル分解を動的に選択し、活性化することができる。
- 参考スコア(独自算出の注目度): 68.54772029557186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, tensor decompositions continue to emerge and receive increasing attention. Selecting a suitable tensor decomposition to exactly capture the low-rank structures behind the data is at the heart of the tensor decomposition field, which remains a challenging and relatively under-explored problem. Current tensor decomposition structure search methods are still confined by a fixed factor-interaction family (e.g., tensor contraction) and cannot deliver the mixture of decompositions. To address this problem, we elaborately design a mixture-of-experts-based tensor decomposition structure search framework (termed as TenExp), which allows us to dynamically select and activate suitable tensor decompositions in an unsupervised fashion. This framework enjoys two unique advantages over the state-of-the-art tensor decomposition structure search methods. Firstly, TenExp can provide a suitable single decomposition beyond a fixed factor-interaction family. Secondly, TenExp can deliver a suitable mixture of decompositions beyond a single decomposition. Theoretically, we also provide the approximation error bound of TenExp, which reveals the approximation capability of TenExp. Extensive experiments on both synthetic and realistic datasets demonstrate the superiority of the proposed TenExp compared to the state-of-the-art tensor decomposition-based methods.
- Abstract(参考訳): 近年、テンソル分解が出現し、注目を集めている。
データの背後にある低ランク構造を正確に捉えるのに適したテンソル分解を選択することは、テンソル分解場の中心にある。
現在のテンソル分解構造探索法は、固定因子-相互作用族(例えばテンソル収縮)によって制限され、分解の混合を供給できない。
この問題に対処するために,未管理の方法で適度なテンソル分解を動的に選択・活性化する,エキスパートによるテンソル分解構造探索フレームワーク(TenExp)を精巧に設計する。
このフレームワークは、最先端のテンソル分解構造探索法に対して、2つのユニークな利点がある。
第一に、TenExpは固定因子-相互作用ファミリーを超えた適切な単一分解を提供することができる。
第2に、TenExpは単一の分解以上の分解の適切な混合を提供することができる。
理論的には、TenExpの近似誤差バウンダリも提供し、TenExpの近似能力を明らかにする。
人工的および現実的なデータセットの広範な実験は、最先端のテンソル分解法と比較して提案されたTenExpの優位性を示している。
関連論文リスト
- Bayesian Fully-Connected Tensor Network for Hyperspectral-Multispectral Image Fusion [20.64193953092791]
ハイパースペクトル・マルチスペクトル画像融合のための完全接続ネットワーク(BFCTN)分解法を提案する。
BFCTNは、最先端の核融合精度と強靭性を達成するだけでなく、複雑な実世界のシナリオにも実用的な適用性を示す。
論文 参考訳(メタデータ) (2025-10-21T08:19:54Z) - Loss-Complexity Landscape and Model Structure Functions [53.92822954974537]
我々はコルモゴロフ構造関数 $h_x(alpha)$ を双対化するためのフレームワークを開発する。
情報理論構造と統計力学の数学的類似性を確立する。
構造関数と自由エネルギーの間のルジャンドル・フェンシェル双対性を明確に証明する。
論文 参考訳(メタデータ) (2025-07-17T21:31:45Z) - Score-Based Model for Low-Rank Tensor Recovery [49.158601255093416]
低ランクテンソル分解(TD)は、マルチウェイデータ解析に有効なフレームワークを提供する。
従来のTD法は、CPやタッカー分解のような事前定義された構造的仮定に依存している。
本稿では,事前定義された構造的仮定や分布的仮定の必要性を排除したスコアベースモデルを提案する。
論文 参考訳(メタデータ) (2025-06-27T15:05:37Z) - Low-Rank Tensor Recovery via Variational Schatten-p Quasi-Norm and Jacobian Regularization [49.85875869048434]
暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
本研究では、スペーサーCP分解を実現するために、冗長なランク1成分に変分Schatten-p quasi-normを導入する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
論文 参考訳(メタデータ) (2025-06-27T11:23:10Z) - A Scalable Factorization Approach for High-Order Structured Tensor Recovery [30.876260188209105]
分解は、非常に小さな次元の約$N$因子を使って$N$のテンソルを表すが、パラメータの数を著しく減少させる。
これらの問題に対する計算的メモリ効率のアプローチは、局所アルゴリズムを用いた因子を直接的に最適化することである。
様々なテンソル分解問題を解くための因子分解の統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-06-19T05:07:07Z) - A Multi-resolution Low-rank Tensor Decomposition [10.196333441334895]
階層的な方法でテンソルを記述するために,多分解能の低ランクテンソル分解を提案する。
分解の中心的な考え方は、テンソルを複数の低次元テンソルに再キャストし、異なる解像度で構造を利用することである。
論文 参考訳(メタデータ) (2024-05-27T19:44:29Z) - Mitigating Heterogeneity among Factor Tensors via Lie Group Manifolds for Tensor Decomposition Based Temporal Knowledge Graph Embedding [15.579069282539502]
我々は、因子テンソルを統一滑らかなリー群多様体に写像し、因子テンソルの分布をテンソル分解において均一に近似させる新しい方法を提案する。
提案手法は, 余分なパラメータを導入することなく, 既存のテンソル分解に基づくTKGE法に直接統合することができる。
論文 参考訳(メタデータ) (2024-04-14T06:10:46Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - A generalizable framework for low-rank tensor completion with numerical priors [16.3738101631138]
本稿では、低ランクテンソル完備化のための最初の一般化可能なフレームワークである一般化CP分解完了(GCDTC)フレームワークを提案する。
Smooth Poisson Completion (SPTC) アルゴリズムは GCDTC フレームワークのインスタンス化であり,その性能は現状を超える。
論文 参考訳(メタデータ) (2023-02-12T09:50:32Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Understanding Deflation Process in Over-parametrized Tensor
Decomposition [17.28303004783945]
過度にパラメータ化されたテンソル分解問題における勾配流のトレーニング力学について検討する。
経験的に、このようなトレーニングプロセスは、まず大きなコンポーネントに適合し、次に小さなコンポーネントを発見する。
論文 参考訳(メタデータ) (2021-06-11T18:51:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。