論文の概要: Multi-Dimensional Visual Data Recovery: Scale-Aware Tensor Modeling and Accelerated Randomized Computation
- arxiv url: http://arxiv.org/abs/2602.12982v1
- Date: Fri, 13 Feb 2026 14:56:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.992792
- Title: Multi-Dimensional Visual Data Recovery: Scale-Aware Tensor Modeling and Accelerated Randomized Computation
- Title(参考訳): 多次元ビジュアルデータリカバリ:スケールアウェアテンソルモデリングと乱数計算の高速化
- Authors: Wenjin Qin, Hailin Wang, Jiangjun Peng, Jianjun Wang, Tingwen Huang,
- Abstract要約: 我々は,新しいタイプのネットワーク圧縮最適化手法,完全ランダム化テンソルネットワーク圧縮(FCTN)を提案する。
FCTNは多次元データ処理と解析において顕著な業績を残している。
定式化モデルの解法を保証した効率的なアルゴリズムを導出する。
- 参考スコア(独自算出の注目度): 51.65236537605077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently proposed fully-connected tensor network (FCTN) decomposition has demonstrated significant advantages in correlation characterization and transpositional invariance, and has achieved notable achievements in multi-dimensional data processing and analysis. However, existing multi-dimensional data recovery methods leveraging FCTN decomposition still have room for further enhancement, particularly in computational efficiency and modeling capability. To address these issues, we first propose a FCTN-based generalized nonconvex regularization paradigm from the perspective of gradient mapping. Then, reliable and scalable multi-dimensional data recovery models are investigated, where the model formulation is shifted from unquantized observations to coarse-grained quantized observations. Based on the alternating direction method of multipliers (ADMM) framework, we derive efficient optimization algorithms with convergence guarantees to solve the formulated models. To alleviate the computational bottleneck encountered when processing large-scale multi-dimensional data, fast and efficient randomized compression algorithms are devised in virtue of sketching techniques in numerical linear algebra. These dimensionality-reduction techniques serve as the computational acceleration core of our proposed algorithm framework. Theoretical results on approximation error upper bounds and convergence analysis for the proposed method are derived. Extensive numerical experiments illustrate the effectiveness and superiority of the proposed algorithm over other state-of-the-art methods in terms of quantitative metrics, visual quality, and running time.
- Abstract(参考訳): 最近提案された完全連結テンソルネットワーク (FCTN) の分解は、相関特性と転位不変性において大きな利点を示し、多次元データ処理と解析において顕著な成果を上げている。
しかし、FCTN分解を利用した既存の多次元データ復元手法には、特に計算効率とモデリング能力のさらなる向上の余地がある。
これらの問題に対処するために、まず勾配写像の観点からFCTNに基づく一般化された非凸正規化パラダイムを提案する。
そして、信頼性とスケーラブルな多次元データリカバリモデルについて検討し、モデル定式化を未定量観測から粗粒度量子化観測へ移行する。
乗算器 (ADMM) フレームワークの交互方向法に基づいて, 収束保証付き効率的な最適化アルゴリズムを導出し, 定式化モデルを解く。
大規模多次元データを処理する際に発生する計算ボトルネックを軽減するため,数値線形代数のスケッチ技術を用いて高速かつ効率的なランダム化圧縮アルゴリズムを考案した。
これらの次元還元技術は,提案したアルゴリズムフレームワークの計算加速コアとして機能する。
提案手法の近似誤差上限と収束解析に関する理論的結果が導出された。
大規模数値実験は、定量的な測定値、視覚的品質、実行時間の観点から、他の最先端手法よりも提案アルゴリズムの有効性と優位性を示す。
関連論文リスト
- Neural Optimal Transport Meets Multivariate Conformal Prediction [58.43397908730771]
条件付きベクトル回帰(CVQR)のためのフレームワークを提案する。
CVQRは、ニューラルネットワークの最適輸送と量子化された最適化を組み合わせて、予測に適用する。
論文 参考訳(メタデータ) (2025-09-29T19:50:19Z) - Accelerating Large-Scale Regularized High-Order Tensor Recovery [14.523033614261628]
既存のテンソル回収法では, スケール変動が構造特性に与える影響を認識できない。
既存の研究は、大規模高次テンソルデータを扱う計算コストの禁止に直面している。
論文 参考訳(メタデータ) (2025-06-11T10:53:07Z) - A Bias-Correction Decentralized Stochastic Gradient Algorithm with Momentum Acceleration [19.83835152405735]
我々は運動量加速分散勾配(Exact-Diffusion with Momentum (EDM))を提案する。
EDMはデータの異質性からバイアスを緩和し、ディープラーニングでよく使われる運動量技術を取り込む。
理論的解析により,EDMアルゴリズムは局所的に近傍最適解に収束することを示した。
論文 参考訳(メタデータ) (2025-01-31T12:15:58Z) - Conditional Mean and Variance Estimation via \ extit{k}-NN Algorithm with Automated Variance Selection [9.943131787772323]
条件平均と分散度を共同で推定するための新しいテクストリック・アレスト・ニアレスト回帰法(textitk-NN)を提案する。
提案アルゴリズムは,古典的非パラメトリックテクトitk-NNモデルの計算効率と多様体学習能力を保持する。
論文 参考訳(メタデータ) (2024-02-02T18:54:18Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Fast Learnings of Coupled Nonnegative Tensor Decomposition Using Optimal Gradient and Low-rank Approximation [7.265645216663691]
交互勾配法(CoNCPD-APG)により最適化された新しい非負のCANDECOMP/PARAFAC分解アルゴリズムを提案する。
提案手法は,低ランク近似をCONCPD-APG法と組み合わせることで,分解品質を損なうことなく計算負担を大幅に削減することができる。
論文 参考訳(メタデータ) (2023-02-10T08:49:36Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Learning Distributionally Robust Models at Scale via Composite
Optimization [45.47760229170775]
DROの異なる変種が、スケーラブルな方法を提供する有限サム合成最適化の単なる例であることを示す。
また、非常に大規模なデータセットからロバストなモデルを学ぶために、先行技術に関して提案アルゴリズムの有効性を示す実験結果も提供する。
論文 参考訳(メタデータ) (2022-03-17T20:47:42Z) - Efficient Multidimensional Functional Data Analysis Using Marginal
Product Basis Systems [2.4554686192257424]
多次元関数データのサンプルから連続表現を学習するためのフレームワークを提案する。
本研究では, テンソル分解により, 得られた推定問題を効率的に解けることを示す。
我々は、ニューロイメージングにおける真のデータ応用で締めくくっている。
論文 参考訳(メタデータ) (2021-07-30T16:02:15Z) - Dual Optimization for Kolmogorov Model Learning Using Enhanced Gradient
Descent [8.714458129632158]
コルモゴロフモデル(コルモゴロフモデル、英: Kolmogorov model、KM)は、確率変数の集合の基本的な確率構造を学ぶための解釈可能で予測可能な表現手法である。
正規化双対最適化と拡張勾配降下法(GD)を併用した計算スケーラブルなKM学習アルゴリズムを提案する。
提案したKM学習アルゴリズムを用いた論理的関係マイニングの精度は80%以上である。
論文 参考訳(メタデータ) (2021-07-11T10:33:02Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Jointly Modeling and Clustering Tensors in High Dimensions [6.072664839782975]
テンソルの合同ベンチマークとクラスタリングの問題を考察する。
本稿では,統計的精度の高い近傍に幾何的に収束する効率的な高速最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-15T21:06:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。