論文の概要: Differentiable Neural Input Search for Recommender Systems
- arxiv url: http://arxiv.org/abs/2006.04466v2
- Date: Thu, 10 Sep 2020 11:23:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 02:37:04.160119
- Title: Differentiable Neural Input Search for Recommender Systems
- Title(参考訳): リコメンダシステムのための微分可能なニューラル入力探索
- Authors: Weiyu Cheng, Yanyan Shen, Linpeng Huang
- Abstract要約: Differentiable Neural Input Search (DNIS) は、より柔軟な空間における混合特徴埋め込み次元を探索する手法である。
DNISはモデルに依存しないため、既存の潜在因子モデルとシームレスに統合して推奨することができる。
- 参考スコア(独自算出の注目度): 26.88124270897381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Latent factor models are the driving forces of the state-of-the-art
recommender systems, with an important insight of vectorizing raw input
features into dense embeddings. The dimensions of different feature embeddings
are often set to a same value empirically, which limits the predictive
performance of latent factor models. Existing works have proposed heuristic or
reinforcement learning-based methods to search for mixed feature embedding
dimensions. For efficiency concern, these methods typically choose embedding
dimensions from a restricted set of candidate dimensions. However, this
restriction will hurt the flexibility of dimension selection, leading to
suboptimal performance of search results. In this paper, we propose
Differentiable Neural Input Search (DNIS), a method that searches for mixed
feature embedding dimensions in a more flexible space through continuous
relaxation and differentiable optimization. The key idea is to introduce a soft
selection layer that controls the significance of each embedding dimension, and
optimize this layer according to model's validation performance. DNIS is
model-agnostic and thus can be seamlessly incorporated with existing latent
factor models for recommendation. We conduct experiments with various
architectures of latent factor models on three public real-world datasets for
rating prediction, Click-Through-Rate (CTR) prediction, and top-k item
recommendation. The results demonstrate that our method achieves the best
predictive performance compared with existing neural input search approaches
with fewer embedding parameters and less time cost.
- Abstract(参考訳): 潜在因子モデルは最先端のレコメンデータシステムの駆動力であり、生の入力特徴を密接な埋め込みにベクトル化する重要な知見である。
異なる特徴埋め込みの次元は、しばしば経験的に同じ値に設定されるため、潜在因子モデルの予測性能が制限される。
既存の研究は、複合特徴埋め込み次元を探索するためのヒューリスティックあるいは強化学習に基づく手法を提案している。
効率性に関して、これらの手法は通常、制限された候補次元の集合から埋め込み次元を選択する。
しかし、この制限は次元選択の柔軟性を損なうことになり、検索結果の最適でない性能につながる。
本稿では,連続緩和と微分可能最適化により,より柔軟な空間における混合特徴埋め込み次元を探索する手法である微分可能ニューラルネットワーク入力探索(dnis)を提案する。
重要なアイデアは、各埋め込み次元の重要度を制御するソフト選択層を導入し、モデルの検証性能に応じてこの層を最適化することだ。
DNISはモデルに依存しないため、既存の潜在因子モデルとシームレスに統合して推奨することができる。
レーティング予測,CTR(Click-Through-Rate)予測,トップk項目推奨の3つの公開実世界のデータセット上で,潜在因子モデルの様々なアーキテクチャを用いて実験を行った。
提案手法は, 埋込パラメータが少なく, 時間コストも少ない既存のニューラルネットワーク探索手法と比較して, 最高の予測性能が得られることを示す。
関連論文リスト
- "FRAME: Forward Recursive Adaptive Model Extraction -- A Technique for Advance Feature Selection" [0.0]
本研究では,新しいハイブリッド手法であるフォワード再帰適応モデル抽出手法(FRAME)を提案する。
FRAMEは、フォワード選択と再帰的特徴除去を組み合わせて、さまざまなデータセットにおける機能選択を強化する。
その結果、FRAMEは下流の機械学習評価指標に基づいて、常に優れた予測性能を提供することが示された。
論文 参考訳(メタデータ) (2025-01-21T08:34:10Z) - An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - MGAS: Multi-Granularity Architecture Search for Trade-Off Between Model
Effectiveness and Efficiency [10.641875933652647]
我々は,多粒度アーキテクチャサーチ(MGAS)を導入し,効率的かつ効率的なニューラルネットワークを探索する。
各粒度レベル固有の離散化関数を学習し、進化したアーキテクチャに従って単位残率を適応的に決定する。
CIFAR-10、CIFAR-100、ImageNetの大規模な実験により、MGASはモデル性能とモデルサイズとのトレードオフを改善するために、他の最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-23T16:32:18Z) - Subject-specific Deep Neural Networks for Count Data with
High-cardinality Categorical Features [1.2289361708127877]
本稿では,ポアソンディープニューラルネットワークにガンマランダム効果を導入するための新しい階層的確率学習フレームワークを提案する。
提案手法は,固定パラメータの最大極大推定器とランダム効果の最適非バイアス予測器を同時に生成する。
最先端のネットワークアーキテクチャは、提案されたh-likelihoodフレームワークに容易に実装できる。
論文 参考訳(メタデータ) (2023-10-18T01:54:48Z) - Performance Scaling via Optimal Transport: Enabling Data Selection from
Partially Revealed Sources [9.359395812292291]
本稿では,モデル性能を予測し,将来的なデータソースの部分的なサンプルに基づいたデータ選択決定を支援する or> というフレームワークを提案する。
or> 既存のパフォーマンススケーリングアプローチを大幅に改善し,性能予測の精度と,性能構築に伴う計算コストを両立させる。
また,他の市販ソリューションと比較して,データ選択効率の差は広い。
論文 参考訳(メタデータ) (2023-07-05T17:33:41Z) - Fine-grained Retrieval Prompt Tuning [149.9071858259279]
微粒な検索プロンプトチューニングは, サンプルプロンプトと特徴適応の観点から, きめの細かい検索タスクを実行するために, 凍結した事前学習モデルを操る。
学習可能なパラメータが少ないFRPTは、広く使われている3つの細粒度データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-29T04:10:04Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - i-Razor: A Differentiable Neural Input Razor for Feature Selection and
Dimension Search in DNN-Based Recommender Systems [8.992480061695138]
ノイズの特徴と不適切な埋め込み次元割り当てはレコメンダシステムの性能を低下させる可能性がある。
本稿では,特徴選択と次元探索を共同で最適化するニューラルインプット・レイザー (i-Razor) を提案する。
論文 参考訳(メタデータ) (2022-04-01T08:30:06Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Deep Variational Models for Collaborative Filtering-based Recommender
Systems [63.995130144110156]
ディープラーニングは、リコメンダシステムの結果を改善するために、正確な協調フィルタリングモデルを提供する。
提案するモデルは, 深層建築の潜伏空間において, 変分概念を注入性に適用する。
提案手法は, 入射雑音効果を超える変動エンリッチメントのシナリオにおいて, 提案手法の優位性を示す。
論文 参考訳(メタデータ) (2021-07-27T08:59:39Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。