論文の概要: Meta-learning for Matrix Factorization without Shared Rows or Columns
- arxiv url: http://arxiv.org/abs/2106.15133v1
- Date: Tue, 29 Jun 2021 07:40:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:48:43.153122
- Title: Meta-learning for Matrix Factorization without Shared Rows or Columns
- Title(参考訳): 共有行や列のない行列分解のためのメタラーニング
- Authors: Tomoharu Iwata
- Abstract要約: 提案手法は,行列を入力とするニューラルネットワークを用いて,行列の分解行列の事前分布を生成する。
ニューラルネットワークは、期待される計算誤差を最小限に抑えるようにメタ学習される。
3つのユーザ・イテム評価データセットを用いた実験により,提案手法は未知の行列における限られた数の観測結果から,欠落した値をインプットできることを示した。
- 参考スコア(独自算出の注目度): 39.56814839510978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method that meta-learns a knowledge on matrix factorization from
various matrices, and uses the knowledge for factorizing unseen matrices. The
proposed method uses a neural network that takes a matrix as input, and
generates prior distributions of factorized matrices of the given matrix. The
neural network is meta-learned such that the expected imputation error is
minimized when the factorized matrices are adapted to each matrix by a maximum
a posteriori (MAP) estimation. We use a gradient descent method for the MAP
estimation, which enables us to backpropagate the expected imputation error
through the gradient descent steps for updating neural network parameters since
each gradient descent step is written in a closed form and is differentiable.
The proposed method can meta-learn from matrices even when their rows and
columns are not shared, and their sizes are different from each other. In our
experiments with three user-item rating datasets, we demonstrate that our
proposed method can impute the missing values from a limited number of
observations in unseen matrices after being trained with different matrices.
- Abstract(参考訳): 本稿では,様々な行列から行列分解に関する知識をメタ学習し,未知の行列を分解する知識を用いる手法を提案する。
提案手法では,行列を入力とし,与えられた行列の因子化行列の事前分布を生成するニューラルネットワークを用いる。
ニューラルネットワークは、最大後続推定(MAP)により、因子化行列を各行列に適合させる際に、予測された計算誤差を最小限に抑えるようにメタ学習される。
我々はMAP推定に勾配降下法を用い、各勾配降下ステップが閉じた形で書かれ、微分可能であるため、ニューラルネットワークパラメータを更新するための勾配降下ステップを通して予測計算誤差をバックプロパゲートすることができる。
提案手法は,行や列が共有されていない場合でも行列からメタ学習が可能であり,そのサイズは異なる。
3つのユーザ項目評価データセットを用いた実験において,提案手法は,異なる行列で学習した後,未知行列の限られた数の観測値から欠落値を導出できることを実証する。
関連論文リスト
- Empirical Bayes Linked Matrix Decomposition [0.0]
この問題に対する経験的変分ベイズ的アプローチを提案する。
単一行列文脈において新規な反復的計算手法について述べる。
提案手法は,下層の低ランク信号の回復に関して,異なるシナリオ下で非常によく機能することを示す。
論文 参考訳(メタデータ) (2024-08-01T02:13:11Z) - Spectral Entry-wise Matrix Estimation for Low-Rank Reinforcement
Learning [53.445068584013896]
低ランク構造を持つ強化学習(RL)における行列推定問題について検討した。
低ランク帯では、回収される行列は期待される腕の報酬を指定し、低ランクマルコフ決定プロセス(MDP)では、例えばMDPの遷移カーネルを特徴付ける。
簡単なスペクトルベースの行列推定手法は,行列の特異部分空間を効率よく復元し,ほぼ最小の入力誤差を示すことを示す。
論文 参考訳(メタデータ) (2023-10-10T17:06:41Z) - Neural incomplete factorization: learning preconditioners for the conjugate gradient method [2.899792823251184]
我々は、効率的なプレコンディショナーの生成を加速するためのデータ駆動型アプローチを開発する。
一般的に手動のプリコンディショナーをグラフニューラルネットワークの出力に置き換える。
本手法は, 行列の不完全分解を発生させ, 神経不完全分解(NeuralIF)と呼ばれる。
論文 参考訳(メタデータ) (2023-05-25T11:45:46Z) - A Structured Sparse Neural Network and Its Matrix Calculations Algorithm [0.0]
非対称な三対角行列を導入し, 対角方向のスパース成分とオフセット部分および超対角線を導入した。
行列逆が存在しない場合には、最小二乗型擬逆が提供される。
その結果,行列のサイズが大きくなると計算コストが著しく向上することがわかった。
論文 参考訳(メタデータ) (2022-07-02T19:38:48Z) - Memory-Efficient Backpropagation through Large Linear Layers [107.20037639738433]
Transformersのような現代のニューラルネットワークでは、線形層は後方通過時にアクティベーションを保持するために大きなメモリを必要とする。
本研究では,線形層によるバックプロパゲーションを実現するためのメモリ削減手法を提案する。
論文 参考訳(メタデータ) (2022-01-31T13:02:41Z) - Non-PSD Matrix Sketching with Applications to Regression and
Optimization [56.730993511802865]
非PSDおよび2乗根行列の次元削減法を提案する。
複数のダウンストリームタスクにこれらのテクニックをどのように使用できるかを示す。
論文 参考訳(メタデータ) (2021-06-16T04:07:48Z) - Deep Two-way Matrix Reordering for Relational Data Analysis [41.60125423028092]
行列の並べ替えは、与えられた行列の行と列をパーミュレートするタスクである。
本稿ではニューラルネットモデルを用いた新しい行列並べ替え手法Deep Two-way Matrix Reordering (DeepTMR)を提案する。
合成データセットと実用データセットの両方に適用することで,提案されたDeepTMRの有効性を実証する。
論文 参考訳(メタデータ) (2021-03-26T01:31:24Z) - Sketching Transformed Matrices with Applications to Natural Language
Processing [76.6222695417524]
本稿では, 変換行列を用いて, 与えられた小さな行列の積を計算するための空間効率のよいスケッチアルゴリズムを提案する。
提案手法は誤差が小さく,空間と時間の両方で効率がよいことを示す。
論文 参考訳(メタデータ) (2020-02-23T03:07:31Z) - Optimal Iterative Sketching with the Subsampled Randomized Hadamard
Transform [64.90148466525754]
最小二乗問題に対する反復スケッチの性能について検討する。
本研究では、Haar行列とランダム化されたHadamard行列の収束速度が同一であることを示し、ランダムなプロジェクションを経時的に改善することを示した。
これらの手法は、ランダム化次元還元を用いた他のアルゴリズムにも適用することができる。
論文 参考訳(メタデータ) (2020-02-03T16:17:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。