論文の概要: Weightless Neural Networks for Continuously Trainable Personalized Recommendation Systems
- arxiv url: http://arxiv.org/abs/2511.05499v1
- Date: Mon, 15 Sep 2025 23:51:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.148034
- Title: Weightless Neural Networks for Continuously Trainable Personalized Recommendation Systems
- Title(参考訳): 連続学習型パーソナライズドレコメンデーションシステムのための軽量ニューラルネットワーク
- Authors: Rafayel Latif, Satwik Behera, Ali Al-Ebrahim,
- Abstract要約: 我々は、ウェイトレスニューラルネットワーク(WNN)を用いたユーザ毎のデータに基づいて訓練された小型パーソナルモデルの性能について検討する。
従来の重み付きシステムやユーザ単位の標準的な協調フィルタリングと対照的に,MovieLensデータセットのサブセット上での競合レベルの精度を実現している。
我々は、エンドユーザがより直接調整可能なレコメンデータを通じて、より高い主観的精度を達成するために、集中型システムを強化するために、どのようにして重量のないシステムを開発できるかについて議論した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Given that conventional recommenders, while deeply effective, rely on large distributed systems pre-trained on aggregate user data, incorporating new data necessitates large training cycles, making them slow to adapt to real-time user feedback and often lacking transparency in recommendation rationale. We explore the performance of smaller personal models trained on per-user data using weightless neural networks (WNNs), an alternative to neural backpropagation that enable continuous learning by using neural networks as a state machine rather than a system with pretrained weights. We contrast our approach against a classic weighted system, also on a per-user level, and standard collaborative filtering, achieving competitive levels of accuracy on a subset of the MovieLens dataset. We close with a discussion of how weightless systems can be developed to augment centralized systems to achieve higher subjective accuracy through recommenders more directly tunable by end-users.
- Abstract(参考訳): 従来のレコメンデータは、非常に効果的な一方で、ユーザデータの集約に事前トレーニングされた大規模な分散システムに依存しており、新たなデータの導入は大規模なトレーニングサイクルを必要とするため、リアルタイムのユーザフィードバックへの適応が遅くなり、レコメンデーションの合理性に透明性が欠如することが多い。
我々は、ニューラルネットワークを事前訓練された重みを持つシステムではなく、状態マシンとして使用することで、継続的な学習を可能にするニューラルネットワークの代替である、ウェイトレスニューラルネットワーク(WNN)を用いて、ユーザ毎のデータに基づいてトレーニングされた小さなパーソナルモデルの性能について検討する。
従来の重み付きシステムやユーザ単位の標準的な協調フィルタリングと対照的に,MovieLensデータセットのサブセット上での競合レベルの精度を実現している。
我々は、エンドユーザがより直接調整可能なレコメンデータを通じて、より高い主観的精度を達成するために、集中型システムを強化するために、どのようにして重量のないシステムを開発できるかについて議論した。
関連論文リスト
- A Good Start Matters: Enhancing Continual Learning with Data-Driven Weight Initialization [15.8696301825572]
連続訓練されたディープニューラルネットワーク(DNN)は、事前の知識を維持し、活用しながら、新しい概念を迅速に学習する必要がある。
新しく遭遇したカテゴリのウェイトは通常ランダムに行われ、初等訓練の損失(スパイク)と不安定性に繋がる。
ニューラル・コラプス(NC)に触発され,CLにおける学習効率向上のための重み付け初期化戦略を提案する。
論文 参考訳(メタデータ) (2025-03-09T01:44:22Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Linear-Time Graph Neural Networks for Scalable Recommendations [50.45612795600707]
推薦システムの鍵は、過去のユーザとイテムのインタラクションに基づいて、ユーザの将来の振る舞いを予測することである。
近年、リコメンデータシステムの予測性能を高めるためにグラフニューラルネットワーク(GNN)を活用することへの関心が高まっている。
我々は,従来のMF手法と同等のスケーラビリティを実現するために,GNNベースのレコメンデータシステムをスケールアップするための線形時間グラフニューラルネットワーク(LTGNN)を提案する。
論文 参考訳(メタデータ) (2024-02-21T17:58:10Z) - A Social-aware Gaussian Pre-trained Model for Effective Cold-start
Recommendation [25.850274659792305]
グラフニューラルネットワーク(GNN)の事前学習段階におけるユーザ関係とインタラクションデータを符号化する新しい推薦モデルであるSGP(Social-Aware Gaussian Pre-trained Model)を提案する。
NDCG@10では,3つの公開データセットに対する実験の結果,SGPモデルは16の競争ベースラインと比較して,最大7.7%の精度で最高のベースラインを達成できた。
さらに,SGPは,特にユーザが友人の提案によってシステムに新規に登録する場合に,コールドスタート問題を効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2023-11-27T13:04:33Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Initialization Matters: Regularizing Manifold-informed Initialization
for Neural Recommendation Systems [47.49065927541129]
我々は、Laplacian Eigenmapsと呼ばれる、分離データ(LEPORID)に対する人気に基づく正規化を用いた新しいユーザ埋め込み方式を提案する。
LEPORIDは、データ多様体上のマルチスケール近傍構造に関する情報を埋め込みに付与し、データ分布の尾に高い埋め込み分散を補う適応正規化を行う。
我々は、LEPORIDを持つ既存のニューラルネットワークが、KNNと同等かそれ以上に動作することを示す。
論文 参考訳(メタデータ) (2021-06-09T11:26:18Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。