論文の概要: To Fold or Not to Fold: Graph Regularized Tensor Train for Visual Data
Completion
- arxiv url: http://arxiv.org/abs/2306.11123v1
- Date: Mon, 19 Jun 2023 18:54:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 16:41:32.084994
- Title: To Fold or Not to Fold: Graph Regularized Tensor Train for Visual Data
Completion
- Title(参考訳): fold or not to fold: ビジュアルデータ補完のためのグラフ正規化テンソルトレイン
- Authors: Le Xu, Lei Cheng, Ngai Wong, and Yik-Chung Wu
- Abstract要約: データのテンソルを折り畳まないよう検討し、同時にグラフ情報を用いて近隣のエントリ間の局所的類似性を規則化する。
TT完了問題におけるグラフベースの正規化によって引き起こされる高い計算複雑性を克服するため,元の問題を複数のサブプロブレムに分割することを提案する。
合成データと実世界の視覚データの両方を用いた実験は,提案手法の優位性を示している。
- 参考スコア(独自算出の注目度): 18.563630736858862
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Tensor train (TT) representation has achieved tremendous success in visual
data completion tasks, especially when it is combined with tensor folding.
However, folding an image or video tensor breaks the original data structure,
leading to local information loss as nearby pixels may be assigned into
different dimensions and become far away from each other. In this paper, to
fully preserve the local information of the original visual data, we explore
not folding the data tensor, and at the same time adopt graph information to
regularize local similarity between nearby entries. To overcome the high
computational complexity introduced by the graph-based regularization in the TT
completion problem, we propose to break the original problem into multiple
sub-problems with respect to each TT core fiber, instead of each TT core as in
traditional methods. Furthermore, to avoid heavy parameter tuning, a sparsity
promoting probabilistic model is built based on the generalized inverse
Gaussian (GIG) prior, and an inference algorithm is derived under the
mean-field approximation. Experiments on both synthetic data and real-world
visual data show the superiority of the proposed methods.
- Abstract(参考訳): テンソルトレイン(TT)表現は、特にテンソルフォールディングと組み合わせた場合、視覚データ補完タスクにおいて大きな成功を収めた。
しかし、画像やビデオテンソルを折り畳むと元のデータ構造が破壊され、近隣のピクセルが異なる次元に割り当てられ、互いに遠く離れてしまうため、局所的な情報損失が生じる。
本稿では、元の視覚データの局所情報を完全保存するために、データテンソルを折り畳まないことを検討すると同時に、グラフ情報を用いて近隣のエントリ間の局所的類似性を規則化する。
TT完了問題におけるグラフベース正規化による高い計算複雑性を克服するため,従来のTTコアではなく,各TTコアファイバに対して,元の問題を複数のサブプロブレムに分割することを提案する。
さらに、重パラメータチューニングを避けるため、一般化された逆ガウス型(gig)に先立ってスパーシティ促進確率モデルを構築し、平均場近似に基づいて推論アルゴリズムを導出する。
合成データと実世界の視覚データの両方における実験は,提案手法の優越性を示している。
関連論文リスト
- IMPaCT GNN: Imposing invariance with Message Passing in Chronological split Temporal Graphs [8.861995276194435]
本稿では,時系列分割によるグラフデータのドメイン適応問題に対処する。
本稿では,時間グラフ構造から導出した現実的な仮定に基づいて不変性を付与するIMPaCTを提案する。
ogbn-mag グラフデータセット上での現在の SOTA 法と比較して,IMPaCT は3.8% の性能向上を実現していることを示す。
論文 参考訳(メタデータ) (2024-11-17T04:23:25Z) - Tensor-view Topological Graph Neural Network [16.433092191206534]
グラフニューラルネットワーク(GNN)は最近、グラフ学習において注目を集めている。
既存のGNNは、各ノード周辺の非常に限られた地区からのローカル情報のみを使用する。
本稿では,単純かつ効果的な深層学習のクラスであるTopological Graph Neural Network (TTG-NN)を提案する。
実データ実験により,提案したTTG-NNは,グラフベンチマークにおいて20の最先端手法より優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:55:01Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Joint Projection Learning and Tensor Decomposition Based Incomplete
Multi-view Clustering [21.925066554821168]
不完全なマルチビュークラスタリングのための新しい統合投影分解法(JPLTD)を提案する。
JPLTDは高次元データにおける冗長な特徴やノイズの影響を軽減する。
いくつかのベンチマークデータセットの実験では、JPLTDが最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2023-10-06T06:19:16Z) - Provable Tensor Completion with Graph Information [49.08648842312456]
本稿では,動的グラフ正規化テンソル完備問題の解法として,新しいモデル,理論,アルゴリズムを提案する。
我々はテンソルの低ランクおよび類似度構造を同時に捉える包括的モデルを開発する。
理論の観点からは、提案したグラフの滑らか度正規化と重み付きテンソル核ノルムとの整合性を示す。
論文 参考訳(メタデータ) (2023-10-04T02:55:10Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - GAN-Supervised Dense Visual Alignment [95.37027391102684]
本稿では,識別モデル学習のためのフレームワークであるGAN-Supervised Learningと,GAN生成した学習データをエンドツーエンドで共同で学習する手法を提案する。
従来のCongealing法にインスパイアされた我々のGANgealingアルゴリズムは、Spatial Transformerを訓練し、不整合データに基づいて訓練されたGANのランダムなサンプルを共通の目標モードにマッピングする。
論文 参考訳(メタデータ) (2021-12-09T18:59:58Z) - Trust the Critics: Generatorless and Multipurpose WGANs with Initial
Convergence Guarantees [5.156484100374058]
Trust the Critics (TTC) は生成モデリングのための新しいアルゴリズムである。
TTCは、訓練された批評家ネットワークのシーケンス上で勾配降下を用いて、ソースデータを反復的に修正する。
論文 参考訳(メタデータ) (2021-11-30T03:36:44Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。