論文の概要: Neural Operator-Grounded Continuous Tensor Function Representation and Its Applications
- arxiv url: http://arxiv.org/abs/2603.01812v1
- Date: Mon, 02 Mar 2026 12:47:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.875134
- Title: Neural Operator-Grounded Continuous Tensor Function Representation and Its Applications
- Title(参考訳): ニューラルネットワークを用いた連続テンソル関数表現とその応用
- Authors: Ruoyang Su, Xi-Le Zhao, Sheng Liu, Wei-Hao Wu, Yisi Luo, Michael K. Ng,
- Abstract要約: 本研究では,複雑な実世界のデータをより忠実に表現できる,ニューラルネットワークによる連続テンソル関数表現(NO-CTR)を提案する。
通常のメッシュグリッド、解像度の異なるメッシュギルド、メッシュグリッド以外の実験は、NO-CTRの優位性を示している。
- 参考スコア(独自算出の注目度): 47.55853502720306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, continuous tensor functions have attracted increasing attention, because they can unifiedly represent data both on mesh grids and beyond mesh grids. However, since mode-$n$ product is essentially discrete and linear, the potential of current continuous tensor function representations is still locked. To break this bottleneck, we suggest neural operator-grounded mode-$n$ operators as a continuous and nonlinear alternative of discrete and linear mode-$n$ product. Instead of mapping the discrete core tensor to the discrete target tensor, proposed mode-$n$ operator directly maps the continuous core tensor function to the continuous target tensor function, which provides a genuine continuous representation of real-world data and can ameliorate discretization artifacts. Empowering with continuous and nonlinear mode-$n$ operators, we propose a neural operator-grounded continuous tensor function representation (abbreviated as NO-CTR), which can more faithfully represent complex real-world data compared with classic discrete tensor representations and continuous tensor function representations. Theoretically, we also prove that any continuous tensor function can be approximated by NO-CTR. To examine the capability of NO-CTR, we suggest an NO-CTR-based multi-dimensional data completion model. Extensive experiments across various data on regular mesh grids (multi-spectral images and color videos), on mesh girds with different resolutions (Sentinel-2 images) and beyond mesh grids (point clouds) demonstrate the superiority of NO-CTR.
- Abstract(参考訳): 近年,メッシュグリッド上でもメッシュグリッドを超えてもデータを統一的に表現できるため,連続テンソル関数が注目されている。
しかし、モデム=n$積は本質的に離散かつ線型であるため、現在の連続テンソル関数表現のポテンシャルはロックされている。
このボトルネックを解消するために、離散モードと線形モードの連続的で非線形な代替として、ニューラル演算子基底モード-n$演算子を提案する。
離散コアテンソルを離散ターゲットテンソルにマッピングする代わりに、モード=n$演算子は連続コアテンソル関数を直接連続ターゲットテンソル関数にマッピングする。
連続かつ非線形なモード-$n$演算子を用いて、古典的な離散テンソル表現や連続テンソル関数表現と比較して複素実世界のデータをより忠実に表現できる、ニューラル作用素基底型連続テンソル関数表現(NO-CTR)を提案する。
理論的には、任意の連続テンソル関数がNO-CTRで近似可能であることも証明する。
本研究では,NO-CTRを用いた多次元データ補完モデルを提案する。
通常のメッシュグリッド(マルチスペクトル画像とカラービデオ)、解像度の異なるメッシュギルド(Sentinel-2画像)、およびメッシュグリッド(ポイントクラウド)以外のさまざまなデータに対する広範な実験は、NO-CTRの優位性を実証している。
関連論文リスト
- When Bayesian Tensor Completion Meets Multioutput Gaussian Processes: Functional Universality and Rank Learning [53.17227599983122]
関数テンソル分解は実数値インデックスを用いて多次元データを解析することができる。
そこで本研究では,Right-Revealing Functional Low-rank tensor completion (RR-F)法を提案する。
連続多次元信号に対するモデルの普遍近似特性を確立する。
論文 参考訳(メタデータ) (2025-12-25T03:15:52Z) - Sinusoidal Approximation Theorem for Kolmogorov-Arnold Networks [0.0]
Kolmogorov-Arnold Networks (KAN) は、最近マルチ層パーセプトロンの代替として提案されている。
コルモゴロフ・アルノルド表現における内・外両方の関数を、学習可能な周波数の重み付き正弦波関数に置き換えることにより、新しいカン変法を提案する。
Lorentz と Sprecher が導入した単純化に触発されて、正弦波活性化の位相を線形空間定数値に固定し、その理論的妥当性の証明を与える。
論文 参考訳(メタデータ) (2025-08-01T01:16:09Z) - Low-Rank Tensor Recovery via Variational Schatten-p Quasi-Norm and Jacobian Regularization [49.85875869048434]
暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
本研究では、スペーサーCP分解を実現するために、冗長なランク1成分に変分Schatten-p quasi-normを導入する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
論文 参考訳(メタデータ) (2025-06-27T11:23:10Z) - Tangent Bundle Convolutional Learning: from Manifolds to Cellular Sheaves and Back [84.61160272624262]
この畳み込み操作に基づいて,タンジェントバンドルフィルタとタンジェントバンドルニューラルネットワーク(TNN)を定義する。
タンジェントバンドルフィルタは、スカラー多様体フィルタ、グラフフィルタ、標準畳み込みフィルタを連続的に一般化するスペクトル表現を許容する。
提案したアーキテクチャが様々な学習課題に与える影響を数値的に評価する。
論文 参考訳(メタデータ) (2023-03-20T17:57:15Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Tangent Bundle Filters and Neural Networks: from Manifolds to Cellular
Sheaves and Back [114.01902073621577]
畳み込みを用いて、タンジェントバンドルフィルタとタンジェントバンドルニューラルネットワーク(TNN)を定義する。
我々は、TNNを時間領域と空間領域の両方で識別し、その離散性は、最近導入されたSheaf Neural Networksの原則的な変種であることを示す。
単体2次元球面上の接ベクトル場の復調作業における提案手法の有効性を数値的に評価する。
論文 参考訳(メタデータ) (2022-10-26T21:55:45Z) - Understanding Recurrent Neural Networks Using Nonequilibrium Response
Theory [5.33024001730262]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、シーケンシャルデータの解析に機械学習で広く使用される脳モデルである。
非平衡統計力学からの応答理論を用いてRNNが入力信号を処理する方法を示す。
論文 参考訳(メタデータ) (2020-06-19T10:09:09Z) - Dynamic Tensor Rematerialization [11.204761128308542]
チェックポイントにより、制限されたメモリ予算下でのディープラーニングモデルのトレーニングが可能になる。
現在のチェックポイント技術は、これらの再計算をオフラインで静的に計画し、静的グラフを仮定する。
我々は、動的リマテリアル化(DTR)を導入することで、簡単なオンラインアルゴリズムが同等のパフォーマンスを達成できることを実証した。
論文 参考訳(メタデータ) (2020-06-17T02:49:59Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。