論文の概要: Learning the Structure of Auto-Encoding Recommenders
- arxiv url: http://arxiv.org/abs/2008.07956v1
- Date: Tue, 18 Aug 2020 14:37:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 21:12:34.916683
- Title: Learning the Structure of Auto-Encoding Recommenders
- Title(参考訳): 自動符号化レコメンダの構造学習
- Authors: Farhan Khawar, Leonard Kin Man Poon, Nevin Lianwen Zhang
- Abstract要約: 我々は,協調フィルタリング領域に存在する固有項目群を利用して,オートエンコーダの推薦者に対する構造学習を導入する。
そこで本研究では,まず関連項目のグループを学習し,その情報を用いて自動符号化ニューラルネットワークの接続構造を決定する手法を提案する。
結果として得られたスパースネットワークは、複数のベンチマークデータセット上で、textscMult-vae/Mult-daeのような最先端の手法よりもかなり優れています。
- 参考スコア(独自算出の注目度): 1.9981375888949475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autoencoder recommenders have recently shown state-of-the-art performance in
the recommendation task due to their ability to model non-linear item
relationships effectively. However, existing autoencoder recommenders use
fully-connected neural network layers and do not employ structure learning.
This can lead to inefficient training, especially when the data is sparse as
commonly found in collaborative filtering. The aforementioned results in lower
generalization ability and reduced performance. In this paper, we introduce
structure learning for autoencoder recommenders by taking advantage of the
inherent item groups present in the collaborative filtering domain. Due to the
nature of items in general, we know that certain items are more related to each
other than to other items. Based on this, we propose a method that first learns
groups of related items and then uses this information to determine the
connectivity structure of an auto-encoding neural network. This results in a
network that is sparsely connected. This sparse structure can be viewed as a
prior that guides the network training. Empirically we demonstrate that the
proposed structure learning enables the autoencoder to converge to a local
optimum with a much smaller spectral norm and generalization error bound than
the fully-connected network. The resultant sparse network considerably
outperforms the state-of-the-art methods like \textsc{Mult-vae/Mult-dae} on
multiple benchmarked datasets even when the same number of parameters and flops
are used. It also has a better cold-start performance.
- Abstract(参考訳): autoencoder recommendersは、非線形項目関係を効果的にモデル化できるため、レコメンデーションタスクにおける最先端のパフォーマンスを示している。
しかし、既存のオートエンコーダは、完全に接続されたニューラルネットワーク層を使用し、構造学習を採用しない。
これは非効率なトレーニングにつながる可能性がある。特にコラボレーティブフィルタリングでよく見られるようにデータが不足している場合だ。
上記の結果は、一般化能力の低下と性能の低下をもたらす。
本稿では,協調フィルタリング領域に存在する固有項目群を利用して,オートエンコーダの推薦者に対する構造学習を提案する。
一般にアイテムの性質から、特定のアイテムは他のアイテムよりも互いに関連していることが分かる。
そこで本研究では,まず関連項目のグループを学習し,その情報を用いて自動符号化ニューラルネットワークの接続構造を決定する手法を提案する。
その結果、ネットワークは疎結合となる。
このスパース構造は、ネットワークトレーニングをガイドする前者と見なすことができる。
実験により,提案する構造学習により,完全接続ネットワークよりもはるかに小さいスペクトルノルムと一般化誤差で,オートエンコーダが局所最適に収束できることを実証する。
結果として生じるスパースネットワークは、同じ数のパラメータとフロップが使用されている場合でも、複数のベンチマークデータセットで \textsc{mult-vae/mult-dae} のような最先端のメソッドを大幅に上回っている。
また、コールドスタート性能も向上している。
関連論文リスト
- Convolutional Networks as Extremely Small Foundation Models: Visual Prompting and Theoretical Perspective [1.79487674052027]
本稿では,汎用的なディープネットワークを新たなタスクに適応させるプロンプトモジュールを設計する。
学習理論によって駆動され、同じトレーニングエラーの下でより良く一般化されるように、可能な限りシンプルなモジュールを誘導する。
実際、SDForestは非常に低コストで、CPUでもリアルタイムに実現できる。
論文 参考訳(メタデータ) (2024-09-03T12:34:23Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Collaborative Reflection-Augmented Autoencoder Network for Recommender
Systems [23.480069921831344]
協調反射強化オートエンコーダネットワーク(CRANet)を開発した。
CRANetは、観測された、観測されていないユーザーとイテムの相互作用から、転送可能な知識を探索することができる。
CRANetは2つの推奨タスクに対応する4つの多様なベンチマークデータセットに対して実験的に検証する。
論文 参考訳(メタデータ) (2022-01-10T04:36:15Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - BCFNet: A Balanced Collaborative Filtering Network with Attention
Mechanism [106.43103176833371]
協調フィルタリング(CF)ベースの推奨方法が広く研究されている。
BCFNet(Balanced Collaborative Filtering Network)という新しい推薦モデルを提案する。
さらに注意機構は、暗黙のフィードバックの中で隠れた情報をよりよく捉え、ニューラルネットワークの学習能力を強化するように設計されている。
論文 参考訳(メタデータ) (2021-03-10T14:59:23Z) - Network Support for High-performance Distributed Machine Learning [17.919773898228716]
学習ノード(計算を行う)と情報ノード(データを提供する)の両方をキャプチャするシステムモデルを提案する。
次に,学習課題を完了させるために,学習ノードと情報ノードが協調して行うべき課題と,実行すべきイテレーション数を選択する問題を定式化する。
我々はDoubleClimbというアルゴリズムを考案し、1+1/|I|競合解を見つけることができる。
論文 参考訳(メタデータ) (2021-02-05T19:38:57Z) - Representation Extraction and Deep Neural Recommendation for
Collaborative Filtering [9.367612782346207]
本稿では,評価行列からユーザやアイテムを抽出する新しい表現学習アルゴリズムについて検討する。
Representation eXtraction と Deep Neural NETwork (RexNet) の2つの相からなるモジュラーアルゴリズムを提案する。
RexNetは、視覚情報やテキスト情報のような構造化されていない補助データに依存しない。
論文 参考訳(メタデータ) (2020-12-09T11:15:23Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - On the use of local structural properties for improving the efficiency
of hierarchical community detection methods [77.34726150561087]
本研究では,階層型コミュニティ検出の効率向上のために,局所構造ネットワーク特性をプロキシとして利用する方法について検討する。
また,ネットワークプルーニングの性能への影響を,階層的コミュニティ検出をより効率的にするための補助的手法として検証する。
論文 参考訳(メタデータ) (2020-09-15T00:16:12Z) - Adaptive Hierarchical Decomposition of Large Deep Networks [4.272649614101117]
データセットが大きくなるにつれて、既存のディープラーニングアーキテクチャが一般的な人間によって認識可能な50以上のクラスを扱うように拡張できるかどうかという自然な疑問がある。
本稿では,単一大規模ネットワークの代替として,より小さなディープネットワーク群を自動解析し,構成するフレームワークを提案する。
結果として、より小さなネットワークは、高度にスケーラブルで、並列であり、訓練もより実践的であり、より高い分類精度を達成する。
論文 参考訳(メタデータ) (2020-07-17T21:04:50Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。