論文の概要: Influence-guided Data Augmentation for Neural Tensor Completion
- arxiv url: http://arxiv.org/abs/2108.10248v1
- Date: Mon, 23 Aug 2021 15:38:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:23:48.500522
- Title: Influence-guided Data Augmentation for Neural Tensor Completion
- Title(参考訳): 神経テンソル完成のための影響誘導データ拡張
- Authors: Sejoon Oh, Sungchul Kim, Ryan A. Rossi, Srijan Kumar
- Abstract要約: 本稿では,ニューラルテンソル完了法の予測精度を高める汎用データ拡張フレームワークであるDAINを提案する。
本稿では、DAINが、神経テンソル完了の計算精度を高めるという点で、すべてのデータ拡張ベースラインより優れていることを示す。
- 参考スコア(独自算出の注目度): 21.625908410873944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How can we predict missing values in multi-dimensional data (or tensors) more
accurately? The task of tensor completion is crucial in many applications such
as personalized recommendation, image and video restoration, and link
prediction in social networks. Many tensor factorization and neural
network-based tensor completion algorithms have been developed to predict
missing entries in partially observed tensors. However, they can produce
inaccurate estimations as real-world tensors are very sparse, and these methods
tend to overfit on the small amount of data. Here, we overcome these
shortcomings by presenting a data augmentation technique for tensors. In this
paper, we propose DAIN, a general data augmentation framework that enhances the
prediction accuracy of neural tensor completion methods. Specifically, DAIN
first trains a neural model and finds tensor cell importances with influence
functions. After that, DAIN aggregates the cell importance to calculate the
importance of each entity (i.e., an index of a dimension). Finally, DAIN
augments the tensor by weighted sampling of entity importances and a value
predictor. Extensive experimental results show that DAIN outperforms all data
augmentation baselines in terms of enhancing imputation accuracy of neural
tensor completion on four diverse real-world tensors. Ablation studies of DAIN
substantiate the effectiveness of each component of DAIN. Furthermore, we show
that DAIN scales near linearly to large datasets.
- Abstract(参考訳): 多次元データ(あるいはテンソル)の欠落値をより正確に予測する方法。
テンソル補完のタスクは、パーソナライズドレコメンデーション、画像とビデオの復元、ソーシャルネットワークにおけるリンク予測など、多くのアプリケーションにおいて不可欠である。
多くのテンソル分解とニューラルネットワークベースのテンソル補完アルゴリズムは、部分的に観測されたテンソルの欠落エントリを予測するために開発された。
しかし、実世界のテンソルは非常に小さく、これらの手法は少量のデータに過度に適合する傾向があるため、不正確な推定を行うことができる。
本稿では,これらの欠点を克服し,テンソルのデータ拡張手法を提案する。
本稿では,ニューラルテンソル完了法の予測精度を高める汎用データ拡張フレームワークであるDAINを提案する。
具体的には、DAINはまず神経モデルを訓練し、影響関数でテンソル細胞の重要性を見出す。
その後、dainは各実体(すなわち次元の指標)の重要性を計算するために細胞の重要性を集約する。
最後に、dainはエンティティの重要性の重み付けサンプリングと値予測によってテンソルを増強する。
広範囲な実験結果から,DAINは4つの実世界のテンソル上での神経テンソル完了の計算精度を高めるという点で,すべてのデータ拡張ベースラインより優れていた。
DAINのアブレーション研究はDAINの各成分の有効性を裏付ける。
さらに,DAINは大規模データセットにほぼ線形にスケールすることを示す。
関連論文リスト
- Factor Augmented Tensor-on-Tensor Neural Networks [3.0040661953201475]
本稿では、テンソル因子モデルとディープニューラルネットワークを融合したFATTNN(Facter Augmented-on-Tensor Neural Network)を提案する。
提案アルゴリズムは,予測精度を大幅に向上し,計算時間を大幅に短縮することを示す。
論文 参考訳(メタデータ) (2024-05-30T01:56:49Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Augmented Tensor Decomposition with Stochastic Optimization [46.16865811396394]
実世界のテンソルデータは、通常高次で、数百万から数十億のエントリを持つ大きな次元を持つ。
テンソル全体を従来のアルゴリズムで分解するのは高価である。
本稿では、データ拡張を効果的に取り入れて下流の分類を向上する拡張テンソル分解を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:29:05Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Scaling and Scalability: Provable Nonconvex Low-Rank Tensor Estimation
from Incomplete Measurements [30.395874385570007]
基本的な課題は、高度に不完全な測定からテンソルを忠実に回収することである。
タッカー分解におけるテンソル因子を直接回復するアルゴリズムを開発した。
2つの正準問題に対する基底真理テンソルの線形独立率で確実に収束することを示す。
論文 参考訳(メタデータ) (2021-04-29T17:44:49Z) - HYDRA: Hypergradient Data Relevance Analysis for Interpreting Deep
Neural Networks [51.143054943431665]
本稿では、深層ニューラルネットワーク(DNN)による予測をトレーニングデータの効果として解釈する高次データ関連分析(HYDRA)を提案する。
HYDRAは、トレーニング軌跡全体を通して、テストデータポイントに対するトレーニングデータの貢献を評価する。
さらに,HyDRAは,データのコントリビューションを正確に推定し,ノイズのあるデータラベルを検出することで,影響関数よりも優れていることを定量的に示す。
論文 参考訳(メタデータ) (2021-02-04T10:00:13Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。